Cientistas da computação da Universidade do Texas em Austin ensinaram a um agente de inteligência artificial como fazer algo que normalmente só os humanos podem fazer - dar uma olhada rápida ao redor e inferir todo o ambiente. Crédito:Jenna Luecke / Universidade do Texas em Austin.
Cientistas da computação da Universidade do Texas em Austin ensinaram a um agente de inteligência artificial como fazer algo que normalmente só os humanos podem fazer - dar uma olhada rápida ao redor e inferir todo o seu ambiente, uma habilidade necessária para o desenvolvimento de robôs de busca e resgate eficazes que um dia podem melhorar a eficácia de missões perigosas. O time, liderado pela professora Kristen Grauman, Ph.D. candidato Santhosh Ramakrishnan e ex-Ph.D. candidato Dinesh Jayaraman (agora na Universidade da Califórnia, Berkeley) publicou seus resultados hoje na revista Ciência Robótica .
A maioria dos agentes de IA - sistemas de computador que poderiam dotar robôs ou outras máquinas com inteligência - são treinados para tarefas muito específicas - como reconhecer um objeto ou estimar seu volume - em um ambiente que eles experimentaram antes, como uma fábrica. Mas o agente desenvolvido por Grauman e Ramakrishnan é de uso geral, coleta de informações visuais que podem ser usadas para uma ampla gama de tarefas.
"Queremos um agente que esteja geralmente equipado para entrar em ambientes e estar pronto para novas tarefas de percepção à medida que surgem, "Grauman disse." Ele se comporta de uma forma versátil e capaz de ter sucesso em diferentes tarefas porque aprendeu padrões úteis sobre o mundo visual. "
Os cientistas usaram o aprendizado profundo, um tipo de aprendizado de máquina inspirado nas redes neurais do cérebro, para treinar seu agente em milhares de imagens de 360 graus de ambientes diferentes.
Agora, quando apresentado a uma cena que nunca viu antes, o agente usa sua experiência para escolher alguns vislumbres - como um turista parado no meio de uma catedral tirando alguns instantâneos em direções diferentes - que juntos somam menos de 20 por cento da cena completa. O que torna este sistema tão eficaz é que ele não está apenas tirando fotos em direções aleatórias, mas, depois de cada vislumbre, escolher a próxima cena que ele prevê adicionará as mais novas informações sobre toda a cena. É como se você estivesse em um supermercado que nunca visitou antes, e você viu maçãs, você esperaria encontrar laranjas nas proximidades, mas para localizar o leite, você pode olhar para o outro lado. Com base em vislumbres, o agente infere o que teria visto se tivesse olhado em todas as outras direções, reconstruindo uma imagem completa de 360 graus de seus arredores.
Um novo agente de IA desenvolvido por pesquisadores da Universidade do Texas em Austin dá alguns 'vislumbres' de seus arredores, representando menos de 20 por cento da visão completa de 360 graus, e infere o resto de todo o ambiente. O que torna este sistema tão eficaz é que ele não está apenas tirando fotos em direções aleatórias, mas, depois de cada vislumbre, escolher a próxima cena que ele prevê adicionará as mais novas informações sobre toda a cena. Crédito:David Steadman / Santhosh Ramakrishnan / Universidade do Texas em Austin
"Assim como você traz informações anteriores sobre as regularidades que existem em ambientes experimentados anteriormente, como todos os supermercados que você já visitou, este agente pesquisa de uma forma não exaustiva, "Grauman disse." Ele aprende a fazer suposições inteligentes sobre onde reunir informações visuais para ter sucesso nas tarefas de percepção.
Um dos principais desafios que os cientistas se propuseram foi projetar um agente que pudesse funcionar com restrições de tempo apertadas. Isso seria crítico em um aplicativo de busca e resgate. Por exemplo, em um prédio em chamas, um robô seria chamado para localizar pessoas rapidamente, chamas e materiais perigosos e transmitir essas informações aos bombeiros.
Por enquanto, o novo agente opera como uma pessoa parada no mesmo lugar, com a capacidade de apontar uma câmera em qualquer direção, mas sem ser capaz de se mover para uma nova posição. Ou, equivalentemente, o agente pode contemplar um objeto que está segurando e decidir como girar o objeto para inspecionar o outro lado dele. Próximo, os pesquisadores estão desenvolvendo ainda mais o sistema para funcionar em um robô totalmente móvel.
Usando os supercomputadores do Texas Advanced Computing Center e do Departamento de Ciência da Computação da UT Austin, levou cerca de um dia para treinar seu agente usando uma abordagem de inteligência artificial chamada aprendizado por reforço. O time, com a liderança de Ramakrishnan, desenvolveu um método para acelerar o treinamento:construir um segundo agente, chamado de sidekick, para ajudar o agente principal.
"Usar informações extras que estão presentes puramente durante o treinamento ajuda o agente [primário] a aprender mais rápido, "Ramakrishnan disse.