Crédito:Domínio Público CC0
Os cientistas que estudam a interação humano-robô geralmente se concentram em entender as intenções humanas da perspectiva de um robô, para que o robô aprenda a cooperar com as pessoas de forma mais eficaz. Mas a interação humano-robô é uma via de mão dupla, e o humano também precisa aprender como o robô se comporta.
Graças a décadas de pesquisa em ciência cognitiva e psicologia educacional, os cientistas têm uma boa noção de como os humanos aprendem novos conceitos. Assim, pesquisadores do MIT e da Universidade de Harvard colaboraram para aplicar teorias bem estabelecidas de aprendizagem de conceitos humanos aos desafios da interação humano-robô.
Eles examinaram estudos anteriores que se concentraram em humanos tentando ensinar novos comportamentos aos robôs. Os pesquisadores identificaram oportunidades em que esses estudos poderiam ter incorporado elementos de duas teorias complementares da ciência cognitiva em suas metodologias. Eles usaram exemplos desses trabalhos para mostrar como as teorias podem ajudar os humanos a formar modelos conceituais de robôs com mais rapidez, precisão e flexibilidade, o que poderia melhorar sua compreensão do comportamento de um robô.
Humanos que constroem modelos mentais mais precisos de um robô geralmente são melhores colaboradores, o que é especialmente importante quando humanos e robôs trabalham juntos em situações de alto risco, como manufatura e assistência médica, diz Serena Booth, estudante de pós-graduação do Interactive Robotics Group da Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL), e principal autor do artigo.
"Independentemente de tentarmos ou não ajudar as pessoas a construir modelos conceituais de robôs, eles os construirão de qualquer maneira. E esses modelos conceituais podem estar errados. Isso pode colocar as pessoas em sério perigo. É importante que usemos tudo o que pudermos para dar a essa pessoa o melhor modelo mental que podem construir", diz Booth.
Booth e sua orientadora, Julie Shah, professora de aeronáutica e astronáutica do MIT e diretora do Interactive Robotics Group, são coautoras deste artigo em colaboração com pesquisadores de Harvard. Elena Glassman '08, MNG '11, Ph.D. '16, professor assistente de ciência da computação na Escola de Engenharia e Ciências Aplicadas John A. Paulson de Harvard, com experiência em teorias de aprendizado e interação humano-computador, foi o principal conselheiro do projeto. Os coautores de Harvard também incluem a estudante de pós-graduação Sanjana Sharma e a assistente de pesquisa Sarah Chung. A pesquisa será apresentada na IEEE Conference on Human-Robot Interaction.
Uma abordagem teórica Os pesquisadores analisaram 35 trabalhos de pesquisa sobre ensino humano-robô usando duas teorias principais. A "teoria da transferência analógica" sugere que os humanos aprendem por analogia. Quando um ser humano interage com um novo domínio ou conceito, ele procura implicitamente por algo familiar que possa usar para entender a nova entidade.
A "teoria da variação da aprendizagem" argumenta que a variação estratégica pode revelar conceitos que podem ser difíceis para uma pessoa discernir de outra forma. Isso sugere que os humanos passam por um processo de quatro etapas quando interagem com um novo conceito:repetição, contraste, generalização e variação.
Enquanto muitos trabalhos de pesquisa incorporaram elementos parciais de uma teoria, isso foi provavelmente devido ao acaso, diz Booth. Se os pesquisadores tivessem consultado essas teorias no início de seu trabalho, poderiam ter sido capazes de projetar experimentos mais eficazes.
Por exemplo, ao ensinar humanos a interagir com um robô, os pesquisadores geralmente mostram às pessoas muitos exemplos do robô realizando a mesma tarefa. Mas para que as pessoas construam um modelo mental preciso desse robô, a teoria da variação sugere que elas precisam ver uma série de exemplos do robô executando a tarefa em diferentes ambientes, e também precisam vê-lo cometer erros.
“É muito raro na literatura de interação humano-robô porque é contra-intuitivo, mas as pessoas também precisam ver exemplos negativos para entender o que o robô não é”, diz Booth.
Essas teorias da ciência cognitiva também podem melhorar o design físico do robô. Se um braço robótico se assemelha a um braço humano, mas se move de maneira diferente do movimento humano, as pessoas terão dificuldade para construir modelos mentais precisos do robô, explica Booth. Como sugerido pela teoria da transferência analógica, como as pessoas mapeiam o que conhecem – um braço humano – para o braço robótico, se o movimento não corresponder, as pessoas podem ficar confusas e ter dificuldade em aprender a interagir com o robô.
Explicações aprimoradas Booth e seus colaboradores também estudaram como as teorias da aprendizagem do conceito humano podem melhorar as explicações que buscam ajudar as pessoas a construir confiança em robôs novos e desconhecidos.
"Na explicabilidade, temos um problema muito grande de viés de confirmação. Geralmente não há padrões sobre o que é uma explicação e como uma pessoa deve usá-la. Como pesquisadores, muitas vezes projetamos um método de explicação, parece bom para nós, e nós enviar", diz ela.
Em vez disso, eles sugerem que os pesquisadores usem teorias do aprendizado de conceitos humanos para pensar sobre como as pessoas usarão explicações, que geralmente são geradas por robôs para comunicar claramente as políticas que usam para tomar decisões. Ao fornecer um currículo que ajude o usuário a entender o que significa um método de explicação e quando usá-lo, mas também onde não se aplica, eles desenvolverão uma compreensão mais forte do comportamento de um robô, diz Booth.
Com base em sua análise, eles fazem várias recomendações sobre como a pesquisa sobre o ensino de robôs humanos pode ser aprimorada. Por um lado, eles sugerem que os pesquisadores incorporem a teoria da transferência analógica, orientando as pessoas a fazer comparações apropriadas quando aprendem a trabalhar com um novo robô. Fornecer orientação pode garantir que as pessoas usem analogias adequadas para que não fiquem surpresas ou confusas com as ações do robô, diz Booth.
Eles também sugerem que incluir exemplos positivos e negativos de comportamento de robô e expor os usuários a como variações estratégicas de parâmetros na "política" de um robô afetam seu comportamento, eventualmente em ambientes estrategicamente variados, podem ajudar os humanos a aprender melhor e mais rápido. A política do robô é uma função matemática que atribui probabilidades a cada ação que o robô pode realizar.
"Estamos realizando estudos com usuários há anos, mas estamos atirando do quadril em termos de nossa própria intuição, tanto quanto o que seria ou não útil para mostrar ao humano. O próximo passo seria ser mais rigoroso sobre fundamentar este trabalho em teorias da cognição humana", diz Glassman.
Agora que esta revisão inicial da literatura usando teorias da ciência cognitiva está completa, Booth planeja testar suas recomendações reconstruindo alguns dos experimentos que ela estudou e vendo se as teorias realmente melhoram o aprendizado humano.