Ao monitorar a atividade cerebral, o sistema pode detectar em tempo real se uma pessoa percebe um erro enquanto um robô executa uma tarefa. Crédito:MIT CSAIL
Fazer com que os robôs façam coisas não é fácil:geralmente os cientistas precisam programá-los explicitamente ou fazê-los entender como os humanos se comunicam por meio da linguagem.
Mas e se pudéssemos controlar robôs de forma mais intuitiva, usando apenas gestos com as mãos e ondas cerebrais?
Um novo sistema liderado por pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) visa fazer exatamente isso, permitindo aos usuários corrigir instantaneamente os erros do robô com nada mais do que sinais cerebrais e um toque de dedo.
Construindo o trabalho anterior da equipe focado em atividades de escolha binária simples, o novo trabalho expande o escopo para tarefas de múltipla escolha, abrindo novas possibilidades de como trabalhadores humanos podem gerenciar equipes de robôs.
Ao monitorar a atividade cerebral, o sistema pode detectar em tempo real se uma pessoa percebe um erro enquanto um robô executa uma tarefa. Usando uma interface que mede a atividade muscular, a pessoa pode então fazer gestos com as mãos para rolar e selecionar a opção correta para o robô executar.
A equipe demonstrou o sistema em uma tarefa na qual um robô move uma furadeira para um dos três alvos possíveis no corpo de um avião simulado. Mais importante, eles mostraram que o sistema funciona com pessoas que nunca viu antes, o que significa que as organizações podem implantá-lo em configurações do mundo real sem a necessidade de treiná-lo para os usuários.
"Este trabalho que combina o feedback de EEG e EMG permite interações naturais entre humanos e robôs para um conjunto mais amplo de aplicações do que antes de usarmos apenas o feedback de EEG, "diz a diretora do CSAIL Daniela Rus, quem supervisionou o trabalho. "Incluindo feedback muscular, podemos usar gestos para comandar o robô espacialmente, com muito mais nuances e especificidade. "
Ph.D. o candidato Joseph DelPreto foi o autor principal de um artigo sobre o projeto ao lado de Rus, ex-associado de pós-doutorado do CSAIL, Andres F. Salazar-Gomez, a ex-cientista pesquisadora do CSAIL Stephanie Gil, pesquisador Ramin M. Hasani, e o professor da Universidade de Boston, Frank H. Guenther. O artigo será apresentado na conferência Robotics:Science and Systems (RSS) que acontecerá em Pittsburgh na próxima semana.
Interação intuitiva humano-robô
Na maioria dos trabalhos anteriores, Em geral, os sistemas só podiam reconhecer os sinais cerebrais quando as pessoas se treinavam para "pensar" de maneiras muito específicas, mas arbitrárias, e quando o sistema era treinado para esses sinais. Por exemplo, um operador humano pode ter que olhar para diferentes visores de luz que correspondem a diferentes tarefas do robô durante uma sessão de treinamento.
Não surpreendentemente, essas abordagens são difíceis para as pessoas manipularem de forma confiável, especialmente se eles trabalham em áreas como construção ou navegação que já requerem intensa concentração.
Enquanto isso, A equipe de Rus aproveitou o poder dos sinais cerebrais chamados de "potenciais relacionados ao erro" (ErrPs), que os pesquisadores descobriram que ocorrem naturalmente quando as pessoas percebem erros. Se houver um ErrP, o sistema para para que o usuário possa corrigi-lo; se não, ele continua.
"O que é ótimo nessa abordagem é que não há necessidade de treinar os usuários para pensar de uma maneira prescrita, "diz DelPreto." A máquina se adapta a você, e não o contrário. "
Para o projeto, a equipe usou "Baxter", um robô humanóide da Rethink Robotics. Com supervisão humana, o robô passou de escolher o alvo correto 70 por cento das vezes para mais de 97 por cento das vezes.
Para criar o sistema, a equipe aproveitou o poder da eletroencefalografia (EEG) para a atividade cerebral e da eletromiografia (EMG) para a atividade muscular. colocar uma série de eletrodos no couro cabeludo e no antebraço dos usuários.
Ambas as métricas têm algumas deficiências individuais:os sinais de EEG nem sempre são detectáveis de forma confiável, enquanto os sinais EMG às vezes podem ser difíceis de mapear para movimentos que são mais específicos do que "mover para a esquerda ou direita." Mesclando os dois, Contudo, permite um bio-sensor mais robusto e possibilita que o sistema funcione em novos usuários sem treinamento.
"Ao observar os sinais musculares e cerebrais, podemos começar a perceber os gestos naturais de uma pessoa junto com suas decisões instantâneas sobre se algo está errado, "diz DelPreto." Isso ajuda a tornar a comunicação com um robô mais parecida com a comunicação com outra pessoa. "
A equipe diz que eles poderiam imaginar o sistema um dia sendo útil para os idosos, ou trabalhadores com distúrbios de linguagem ou mobilidade limitada.
"Gostaríamos de sair de um mundo onde as pessoas têm que se adaptar às restrições das máquinas, ", diz Rus." Abordagens como essa mostram que é muito possível desenvolver sistemas robóticos que sejam uma extensão mais natural e intuitiva de nós. "