Crédito:Rensselaer Polytechnic Institute
De olhos arregalados, Robô de fala mansa chamado Pepper motors ao redor do Intelligent Systems Lab no Rensselaer Polytechnic Institute. Um dos pesquisadores testa Pepper, fazendo vários gestos enquanto o robô descreve com precisão o que está fazendo. Quando ele cruza os braços, o robô identifica por sua linguagem corporal que algo está errado.
"Ei, seja amigável comigo, "Pepper diz.
A capacidade de Pepper de captar pistas não-verbais é resultado da "visão" aprimorada que os pesquisadores do laboratório estão desenvolvendo. Usando tecnologia avançada de visão computacional e inteligência artificial, a equipe está aprimorando a capacidade de robôs como este interagirem naturalmente com humanos.
"O que temos feito até agora é adicionar recursos de compreensão visual ao robô, para que possa perceber a ação humana e interagir naturalmente com os humanos por meio desses comportamentos não-verbais, como gestos corporais, expressões faciais, e pose do corpo, "disse Qiang Ji, professor de elétrica, computador, e engenharia de sistemas, e o diretor do Intelligent Systems Lab.
Com o apoio de financiamento governamental ao longo dos anos, pesquisadores da Rensselaer mapearam o rosto e o corpo humano para que os computadores, com a ajuda de câmeras integradas aos robôs e tecnologias de aprendizado de máquina, pode perceber pistas não-verbais e identificar ações e emoções humanas.
Entre outras coisas, Pepper pode contar quantas pessoas estão em uma sala, escaneie uma área para procurar uma pessoa em particular, estimar a idade de um indivíduo, reconhecer expressões faciais, e manter contato visual durante uma interação.
Outro robô, chamado Zenão, se parece mais com uma pessoa e tem motores em seu rosto, tornando-o capaz de espelhar de perto a expressão humana. A equipe de pesquisa tem aprimorado a capacidade de Zeno de imitar a comunicação facial humana em tempo real até o movimento da sobrancelha - e até do globo ocular.
Ji vê a visão computacional como o próximo passo no desenvolvimento de tecnologias com as quais as pessoas interagem em suas casas todos os dias. Atualmente, os assistentes virtuais habilitados para IA mais populares dependem quase inteiramente de interações vocais.
"Não há componente de visão. Basicamente, é apenas um componente de áudio, "Ji disse." No futuro, achamos que será multimodal, com interação verbal e não verbal com o robô. "
A equipe está trabalhando em outros desenvolvimentos centrados na visão, como a tecnologia que seria capaz de rastrear o movimento dos olhos. Ferramentas como essa podem ser aplicadas a smartphones e tablets.
Ji disse que a pesquisa que está sendo feita em seu laboratório está atualmente sendo apoiada pela National Science Foundation e Defense Advanced Research Projects Agency. Além disso, o Intelligent Systems Lab recebeu financiamento ao longo dos anos de fontes públicas e privadas, incluindo o Departamento de Defesa dos EUA, o Departamento de Transporte dos EUA, e Honda.
O que a equipe de Ji está desenvolvendo também pode ser usado para tornar as estradas mais seguras, ele disse, instalando sistemas de visão por computador em carros.
"Seremos capazes de usar essa tecnologia para, em última análise, detectar se o motorista está cansado, ou o motorista está distraído, "ele disse." A pesquisa que estamos fazendo é mais uma IA centrada no ser humano. Queremos desenvolver IA, tecnologia de aprendizado de máquina, para estender não apenas as capacidades físicas dos humanos, mas também suas capacidades cognitivas. "
É aí que Pepper e Zeno entram. Ji imagina um tempo em que os robôs farão companhia aos humanos e melhorarão suas vidas. Ele disse que esse é o objetivo final.
"Este robô pode ser um companheiro para os humanos no futuro, "Ji disse, apontando para Pepper. "Poderia ouvir humanos, entender a emoção humana, e responder por meio de comportamentos verbais e não-verbais para atender às necessidades dos humanos. "