Como investigar quando um robô causa um acidente e por que é importante que façamos
Crédito:Andrey_Popov/Shutterstock
Os robôs estão cada vez mais presentes em nossas vidas diárias. Eles podem ser incrivelmente úteis (membros biônicos, cortadores de grama robóticos ou robôs que entregam refeições para pessoas em quarentena) ou meramente divertidos (cães robóticos, brinquedos dançantes e drones acrobáticos). A imaginação talvez seja o único limite para o que os robôs poderão fazer no futuro.
O que acontece, porém, quando os robôs não fazem o que queremos — ou o fazem de uma forma que causa danos? Por exemplo, o que acontece se um braço biônico estiver envolvido em um acidente de trânsito?
Acidentes com robôs estão se tornando uma preocupação por dois motivos. Primeiro, o aumento no número de robôs naturalmente verá um aumento no número de acidentes em que estão envolvidos. Segundo, estamos melhorando na construção de robôs mais complexos. Quando um robô é mais complexo, é mais difícil entender por que algo deu errado.
A maioria dos robôs funciona com várias formas de inteligência artificial (IA). As IAs são capazes de tomar decisões semelhantes às humanas (embora possam tomar decisões objetivamente boas ou ruins). Essas decisões podem ser várias coisas, desde a identificação de um objeto até a interpretação da fala.
As IAs são treinadas para tomar essas decisões para o robô com base em informações de vastos conjuntos de dados. As IAs são testadas quanto à precisão (o quão bem elas fazem o que queremos) antes de definir a tarefa.
As IAs podem ser projetadas de diferentes maneiras. Como exemplo, considere o vácuo do robô. Ele pode ser projetado para que, sempre que colidir com uma superfície, seja redirecionado em uma direção aleatória. Por outro lado, poderia ser projetado para mapear seus arredores para encontrar obstáculos, cobrir todas as áreas da superfície e retornar à sua base de carregamento. Enquanto o primeiro vácuo está recebendo informações de seus sensores, o segundo está rastreando essa entrada em um sistema de mapeamento interno. Em ambos os casos, a IA está recebendo informações e tomando uma decisão em torno delas.
Quanto mais complexas as coisas de que um robô é capaz, mais tipos de informações ele precisa interpretar. Também pode avaliar várias fontes de um tipo de dados, como, no caso de dados auditivos, uma voz ao vivo, um rádio e o vento.
À medida que os robôs se tornam mais complexos e são capazes de agir com base em uma variedade de informações, torna-se ainda mais importante determinar em quais informações o robô agiu, principalmente quando o dano é causado.
Acidentes acontecem Como acontece com qualquer produto, as coisas podem dar errado com os robôs. Às vezes, isso é um problema interno, como o robô não reconhecer um comando de voz. Às vezes é externo — o sensor do robô foi danificado. E às vezes pode ser ambos, como o robô não ser projetado para trabalhar em tapetes e “tropeçar”. As investigações de acidentes com robôs devem analisar todas as causas potenciais.
Embora possa ser inconveniente se o robô for danificado quando algo der errado, estamos muito mais preocupados quando o robô causa danos ou não consegue mitigar os danos a uma pessoa. Por exemplo, se um braço biônico não pegar uma bebida quente, derrubando-a no dono; ou se um robô de atendimento não registrar uma chamada de socorro quando o usuário frágil cair.
Por que a investigação de acidentes com robôs é diferente da de acidentes humanos? Notavelmente, os robôs não têm motivos. Queremos saber por que um robô tomou a decisão que tomou com base no conjunto específico de entradas que tinha.
No exemplo do braço biônico, foi uma falha de comunicação entre o usuário e a mão? O robô confundiu vários sinais? Bloquear inesperadamente? No exemplo da pessoa caindo, o robô não poderia "ouvir" o pedido de ajuda por um ventilador barulhento? Ou teve problemas para interpretar a fala do usuário?
A caixa preta A investigação de acidentes com robôs tem um benefício importante em relação à investigação de acidentes humanos:há potencial para uma testemunha embutida. Aviões comerciais têm um testemunho semelhante:a caixa preta, construída para resistir a acidentes de avião e fornecer informações sobre o motivo do acidente. Essas informações são incrivelmente valiosas não apenas para entender os incidentes, mas também para evitar que eles aconteçam novamente.
Como parte do RoboTIPS, um projeto que foca na inovação responsável para robôs sociais (robôs que interagem com pessoas), criamos o que chamamos de caixa preta ética:um registro interno das entradas do robô e ações correspondentes. A caixa preta ética é projetada para cada tipo de robô que habita e é construída para registrar todas as informações sobre as quais o robô atua. Isso pode ser voz, visual ou até mesmo atividade de ondas cerebrais.
Estamos testando a caixa preta ética em uma variedade de robôs em condições de laboratório e de acidentes simulados. O objetivo é que a caixa preta ética se torne padrão em robôs de todas as marcas e aplicações.
Embora os dados registrados pela caixa preta ética ainda precisem ser interpretados no caso de um acidente, ter esses dados em primeira instância é crucial para nos permitir investigar.
O processo de investigação oferece a chance de garantir que os mesmos erros não ocorram duas vezes. A caixa preta ética é uma maneira não apenas de construir robôs melhores, mas de inovar com responsabilidade em um campo excitante e dinâmico.