Os pesquisadores Jared Johansen (à esquerda) e Thomas Ilyevsky (à direita) avaliam o robô autônomo, Hosh, revisar os sistemas operacionais no ambiente. O robô irá localizar autonomamente uma sala, construção ou individual por meio de sua visão integrativa e software de linguagem. Crédito:Imagem da Hope Sale / Purdue Research Foundation
Pesquisadores da Purdue University na Escola de Engenharia Elétrica e de Computação estão desenvolvendo linguagem integrativa e software de visão que pode permitir que um robô autônomo interaja com pessoas em diferentes ambientes e alcance objetivos de navegação.
"O objetivo geral do projeto é dizer ao robô para encontrar uma pessoa específica, sala ou edifício e fazer o robô interagir com o normal, pessoas não treinadas para pedirem em linguagem natural direções para um lugar específico, "disse Jeffrey Mark Siskind, um professor associado liderando a equipe de pesquisa. "Para realizar esta tarefa, o robô deve operar com segurança na presença de pessoas, incentive-os a fornecer instruções e usar suas informações para encontrar o objetivo. "
Os candidatos ao doutorado Thomas Ilyevsky e Jared Johansen estão trabalhando com Siskind para desenvolver um robô chamado Hosh que pode integrar dados gráficos e de linguagem em seu processo de navegação para localizar um lugar ou pessoa específica. A equipe está desenvolvendo o robô por meio de uma bolsa financiada pela National Science Foundation's National Robotics Initiative.
Este robô pode ajudar carros autônomos a se comunicarem com passageiros e pedestres ou pode realizar tarefas de pequena escala em um local comercial, como entrega de correspondência. O robô contribuiria para o crescimento esperado de US $ 14 bilhões da indústria de robótica de consumo até 2025, conforme projetado pelo Boston Consulting Group.
O robô receberá a tarefa de localizar uma sala específica, edifício ou indivíduo em local conhecido ou desconhecido. Então, o robô unirá linguagem inovadora e processamento visual para navegar no ambiente, pergunte por direções, solicite que as portas sejam abertas ou que os botões do elevador sejam pressionados e atinja seu objetivo.
Os pesquisadores estão desenvolvendo software de alto nível para dar ao robô "conhecimento de bom senso, "a capacidade de compreender objetos e ambientes com intuição de nível humano, permitindo que ele reconheça as convenções de navegação. Por exemplo, o robô irá incorporar declarações faladas e gestos físicos em seu processo de navegação.
O robô autônomo, chamado Hosh, vai navegar pelos ambientes e interagir com as pessoas. Mostrado na foto superior está a tela do computador do robô, incluindo um mapa, visão da câmera e software operacional adicional. A parte inferior mostra os pesquisadores Jeffrey Mark Siskind (à esquerda), Thomas Ilyevsky (centro) e Jared Johansen (direita) através da visão computacional do robô. Crédito:Imagem da Hope Sale / Purdue Research Foundation
"O robô precisa de intuição de nível humano para entender as convenções de navegação, "Ilyevsky disse." É aqui que entra o conhecimento do bom senso. O robô deve saber que salas de números pares e ímpares ficam em frente uma da outra em um corredor ou que a sala 317 deve estar no terceiro andar do prédio. "
Para desenvolver o conhecimento de bom senso do robô, as pesquisas desenvolverão software integrativo de processamento de linguagem natural e visão computacional. Tipicamente, o processamento de linguagem natural permitirá que o robô se comunique com as pessoas, enquanto o software de visão por computador permitirá que o robô navegue em seu ambiente. Contudo, os pesquisadores estão desenvolvendo o software para informar uns aos outros conforme o robô se move.
"O robô precisa entender a linguagem em um contexto visual e a visão em um contexto de linguagem, "Siskind disse." Por exemplo, ao localizar uma pessoa específica, o robô pode receber informações em um comentário ou gesto físico e deve entender ambos dentro do contexto de seus objetivos de navegação. "
Por exemplo, se a resposta for "Verifique se há essa pessoa na sala 300, "o robô precisará processar a declaração em um contexto visual e identificar em que sala está atualmente, bem como a melhor rota para chegar à sala 300. Se a resposta for" Essa pessoa está ali "com uma dica física, o robô precisará integrar a dica visual com o significado da declaração para identificar a Pessoa A.
"Interagir com humanos é um problema não resolvido na inteligência artificial, "Johansen disse." Para este projeto, estamos tentando ajudar o robô a entender certas convenções com as quais ele pode se deparar ou a antecipar que uma dúzia de respostas diferentes possam ter o mesmo significado. "
"Esperamos que essa tecnologia seja realmente grande, porque a indústria de robôs autônomos e carros autônomos está se tornando muito grande, "Siskind disse." A tecnologia poderia ser adaptada em carros autônomos, permitindo que os carros peçam direções ou que os passageiros solicitem um destino específico, assim como os motoristas humanos fazem. "
Os pesquisadores esperam enviar o robô em missões autônomas com complexidade crescente à medida que a tecnologia avança. Primeiro, o robô aprenderá a navegar em ambientes fechados em um único andar. Então, para mudar para outros andares e edifícios, vai pedir às pessoas que operem o elevador ou abram portas para ele. Os pesquisadores esperam progredir para missões ao ar livre na primavera.