Crédito:Arrichiello et al.
Pesquisadores da Universidade de Cassino e Southern Lazio, Na Itália, desenvolveram recentemente uma arquitetura de ponta que permite a operação de um robô auxiliar por meio de uma interface de computador cérebro baseada em P300 (BCI). Esta arquitetura, apresentado em um artigo pré-publicado no arXiv, poderia finalmente permitir que pessoas com deficiências motoras graves realizassem tarefas de manipulação, simplificando assim suas vidas.
O sistema desenvolvido pelos pesquisadores é baseado em um robô manipulador de luz. Essencialmente, este manipulador recebe comandos de alto nível dos usuários por meio de um BCI baseado no paradigma P300. Na neurociência, As ondas P300 são respostas eliciadas pelo cérebro de um ser humano durante o processo de tomada de decisão.
"O principal objetivo do nosso trabalho foi realizar um sistema que permite aos usuários gerar diretivas de alto nível para manipuladores robóticos através de interfaces cérebro-computador (BCIs), "Filippo Arrichiello, um dos pesquisadores que realizou o estudo, disse TechXplore. "Essas diretivas são então traduzidas em comandos de movimento para o manipulador robótico que realiza de forma autônoma a tarefa atribuída, ao mesmo tempo em que garante a segurança do usuário. "
A arquitetura desenvolvida pelos pesquisadores tem três componentes principais:um dispositivo P300 BCI, um robô auxiliar e um sistema de percepção. Arrichiello e seus colegas integraram esses três elementos em um ambiente ROS, um middleware de software renomado para aplicações de robótica.
O primeiro componente da arquitetura, o dispositivo P300 BCI, mede a atividade elétrica no cérebro por meio de eletroencefalografia (EEG). Em seguida, ele traduz esses sinais cerebrais em comandos que podem ser enviados a um computador.
"O paradigma P300 para BCI usa a reação do cérebro do usuário a estímulos externos, ou seja, ícones piscando em uma tela, para permitir que o usuário selecione um elemento na tela reagindo (por exemplo, contando) cada vez que o ícone desejado pisca, "Arrichiello explicou." Isso permite ao usuário realizar um conjunto de escolhas entre um conjunto de elementos predefinidos e construir mensagens de alto nível para o robô sobre a ação a realizar, como a manipulação de um objeto. "
Para realizar as ações desejadas pelos usuários, os pesquisadores usaram um manipulador robótico leve chamado Kinova Jaco. O software de controle deste robô assistente recebe diretivas de alto nível geradas pelo usuário por meio do BCI e as traduz em comandos de movimento. Seu movimento é controlado por meio de um algoritmo de cinemática inversa de loop fechado que pode gerenciar simultaneamente diferentes tarefas.
Crédito:Arrichiello et al.
Crédito:Arrichiello et al.
"A arquitetura de controle que desenvolvemos permite que o robô atinja objetivos múltiplos e priorizados, ou seja, realizar a tarefa de manipulação, evitando a colisão com o usuário e / ou com obstáculos externos, e, embora respeite as restrições como os limites mecânicos do robô, "Arrichiello disse.
O componente final da arquitetura idealizada por Arrichiello e seus colegas é um sistema de percepção baseado em um sensor RGB-D (ou seja, um Microsoft Kinect One), entre outras coisas. O sistema usa o sensor Kinect One para detectar e localizar objetos que devem ser manipulados pelo robô dentro da área de trabalho. O sensor também pode detectar o rosto de um usuário, estimar a posição de sua boca e reconhecer obstáculos.
"As implicações práticas do nosso estudo são bastante diretas e ambiciosas, "Seu objetivo final é avançar na direção de construir uma configuração robótica confiável e eficaz que possa finalmente ajudar os usuários com graves deficiências de mobilidade a realizar operações da vida diária de forma autônoma e sem o apoio constante de um cuidador."
Quando os pesquisadores começaram a trabalhar no desenvolvimento de um robô auxiliar alimentado por um BCI, eles primeiro experimentaram com um sistema composto de um único manipulador de base fixa que reconhece objetos por meio de marcadores e com uma interface de usuário pré-configurada. Eles agora avançaram consideravelmente nesta arquitetura, a ponto de permitir aos usuários lidar com sistemas robóticos mais complexos, como robôs móveis com braços duplos.
Crédito:Arrichiello et al.
Crédito:Arrichiello et al.
“Também melhoramos o módulo de percepção, que agora pode reconhecer e localizar objetos com base em suas formas, "Arrichiello explicou." Finalmente, trabalhamos na interação entre o módulo de percepção e a interface gráfica do usuário (GUI) para criar a dinâmica da GUI de acordo com as detecções do módulo de percepção (por exemplo, a interface do usuário é atualizada com base no número e tipo de objetos reconhecidos em uma mesa pelo módulo de percepção). "
Para avaliar o desempenho e a eficácia de sua arquitetura, Arrichiello e seus colegas realizaram uma série de experimentos preliminares, alcançando resultados altamente promissores. No futuro, seu sistema pode mudar a vida de indivíduos afetados por deficiências motoras e lesões físicas, permitindo que eles concluam uma ampla variedade de tarefas de manipulação.
"Pesquisas futuras serão primeiramente destinadas a melhorar a robustez e confiabilidade da arquitetura, além de aumentar o domínio de aplicação do sistema, "Arrichiello disse." Além disso, vamos testar diferentes paradigmas BCI, ou seja, uma maneira diferente de usar o BCI como aqueles baseados em imagens motoras, a fim de identificar o mais adequado para aplicações de teleoperação, onde o usuário pode controlar o robô usando o BCI como uma espécie de joystick, sem limitar o comando de movimento transmitido aos robôs para um conjunto predefinido. "
© 2019 Science X Network