• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Os pesquisadores usam videogames para desbloquear novos níveis de IA

    Crédito CC0:domínio público

    As expectativas por inteligências artificiais são muito reais e muito altas. Uma análise na Forbes projeta receitas de A.I. vai disparar de US $ 1,62 bilhão em 2018 para US $ 31,2 bilhões em 2025. O relatório também incluiu uma pesquisa revelando que 84% das empresas acreditam que investem na A.I. levará a vantagens competitivas.

    "É empolgante ver os enormes sucessos e progressos alcançados nos últimos anos, "diz Daniel Jiang, professor assistente de engenharia industrial na University of Pittsburgh Swanson School of Engineering. “Para continuar esta tendência, estamos procurando desenvolver métodos mais sofisticados para algoritmos para aprender estratégias para a tomada de decisão ideal. "

    Dr. Jiang projeta algoritmos que aprendem estratégias de decisão em ambientes complexos e incertos. Ao testar algoritmos em ambientes simulados, eles podem aprender com seus erros enquanto descobrem e reforçam estratégias para o sucesso. Para aperfeiçoar este processo, O Dr. Jiang e muitos pesquisadores em sua área exigem simulações que espelhem o mundo real.

    "Como engenheiros industriais, normalmente trabalhamos em problemas com foco operacional. Por exemplo, transporte, logística e cadeias de abastecimento, sistemas de energia e saúde são várias áreas importantes, ", diz ele." Todos esses problemas são operações de alto risco com consequências para o mundo real. Eles não são os melhores ambientes para experimentar tecnologias experimentais, especialmente quando muitos de nossos algoritmos podem ser considerados maneiras inteligentes de repetir 'tentativa e erro' sobre todas as ações possíveis. "

    Uma estratégia para preparar I.A. avançado. enfrentar cenários e complicações do mundo real é usar dados históricos. Por exemplo, algoritmos podiam percorrer décadas de dados para descobrir quais decisões eram eficazes e quais levavam a resultados menos do que ideais. Contudo, pesquisadores descobriram que é difícil testar algoritmos projetados para aprender comportamentos adaptativos usando apenas dados do passado.

    Dr. Jiang explica, "Os dados históricos podem ser um problema porque as ações das pessoas fixam as consequências e não apresentam possibilidades alternativas. Em outras palavras, é difícil para um algoritmo fazer a pergunta 'como as coisas seriam diferentes se eu escolhesse a porta B em vez da porta A?' Em dados históricos, tudo o que podemos ver são as consequências da porta A. "

    Jogos de vídeo, como uma alternativa, oferecem ricos ambientes de teste cheios de complexas tomadas de decisão sem os perigos de colocar um I.A. imaturo. totalmente no comando. Ao contrário do mundo real, eles fornecem uma maneira segura para um algoritmo aprender com seus erros.

    "Os designers de videogames não estão criando jogos com o objetivo de testar modelos ou simulações, "Dr. Jiang diz." Eles costumam projetar jogos com uma missão dupla:criar ambientes que imitem o mundo real e desafiar os jogadores a tomarem decisões difíceis. Essas metas também acontecem para se alinhar com o que estamos procurando. Também, os jogos são muito mais rápidos. Em algumas horas de tempo real, podemos avaliar os resultados de centenas de milhares de decisões de jogo. "

    Para testar seu algoritmo, O Dr. Jiang usou um gênero de videogame chamado Multiplayer Online Battle Arena ou MOBA. Jogos como League of Legends ou Heroes of the Storm são MOBAs populares nos quais os jogadores controlam um dos vários personagens "heróis" e tentam destruir as bases dos oponentes enquanto protegem as suas próprias.

    Um algoritmo de sucesso para treinar um I.A. de jogabilidade. deve superar vários desafios, como tomada de decisão em tempo real e horizontes de decisão longos - um termo matemático para quando as consequências de algumas decisões só são conhecidas muito mais tarde.

    "Projetamos o algoritmo para avaliar 41 informações e, em seguida, produzir uma das 22 ações diferentes, incluindo movimento, ataques e movimentos especiais, "diz o Dr. Jiang." Comparamos métodos de treinamento diferentes uns com os outros. O jogador de maior sucesso usou um método chamado pesquisa de árvore de Monte Carlo para gerar dados, que é então alimentado em uma rede neural. "

    A busca por árvore de Monte Carlo é uma estratégia de tomada de decisão na qual o jogador se move aleatoriamente por meio de uma simulação ou de um videogame. O algoritmo então analisa os resultados do jogo para dar mais peso às ações mais bem-sucedidas. Com o tempo e várias iterações do jogo, quanto mais ações bem-sucedidas persistirem, e o jogador se torna melhor em ganhar o jogo.

    "Nossa pesquisa também forneceu alguns resultados teóricos para mostrar que a busca por árvores de Monte Carlo é uma estratégia eficaz para treinar um agente para ter sucesso na tomada de decisões difíceis em tempo real, mesmo quando operando em um mundo incerto, "Dr. Jiang explica.

    Dr. Jiang publicou sua pesquisa em um artigo em coautoria com Emmanuel Ekwedike e Han Liu e apresentou os resultados na Conferência Internacional de Aprendizado de Máquina de 2018 em Estocolmo, Suécia no verão passado.

    Na Universidade de Pittsburgh, ele continua a trabalhar na área de tomada de decisão sequencial com doutorado. alunos Yijia Wang e Ibrahim El-Shar. A equipe se concentra em problemas relacionados ao compartilhamento de carona, mercados de energia, e saúde pública. À medida que as indústrias se preparam para colocar I.A. encarregado de responsabilidades críticas, Dr. Jiang garante que os algoritmos subjacentes permaneçam no topo de seu jogo.


    © Ciência https://pt.scienceaq.com