A robótica está sendo rapidamente transformada por avanços na inteligência artificial. E os benefícios são generalizados:estamos vendo veículos mais seguros com a capacidade de frear automaticamente em caso de emergência, braços robóticos transformando linhas de fábricas que antes eram terceirizadas e novos robôs que podem fazer de tudo, desde comprar mantimentos até entregar medicamentos prescritos para pessoas que têm problemas para fazer isso sozinhas.
Mas nosso apetite cada vez maior por pessoas inteligentes, máquinas autônomas representam uma série de desafios éticos.
Avanços rápidos levaram a dilemas éticos
Essas ideias e muito mais estavam girando enquanto meus colegas e eu nos conhecíamos no início de novembro em uma das maiores conferências de pesquisa autônoma do mundo com foco em robótica - a Conferência Internacional IEEE sobre Robôs e Sistemas Inteligentes. Lá, acadêmicos, pesquisadores corporativos, e cientistas do governo apresentaram desenvolvimentos em algoritmos que permitem aos robôs tomar suas próprias decisões.
Como acontece com toda tecnologia, a gama de usos futuros para nossa pesquisa é difícil de imaginar. É ainda mais desafiador fazer previsões devido à rapidez com que esse campo está mudando. Leva, por exemplo, a capacidade de um computador identificar objetos em uma imagem:em 2010, o estado da arte teve sucesso apenas na metade das vezes, e ficou preso lá por anos. Hoje, no entanto, os melhores algoritmos, conforme mostrado em artigos publicados, têm agora uma precisão de 86%. Esse avanço por si só permite que robôs autônomos entendam o que estão vendo através das lentes das câmeras. Ele também mostra o rápido ritmo de progresso na última década devido aos desenvolvimentos em IA.
Esse tipo de melhoria é um verdadeiro marco do ponto de vista técnico. Considerando que, no passado, revisar manualmente as imagens de vídeo requeria um número incrível de horas, agora, esses dados podem ser analisados com rapidez e precisão por um programa de computador.
Mas também dá origem a um dilema ético. Ao remover humanos do processo, as premissas que sustentam as decisões relacionadas à privacidade e segurança foram alteradas fundamentalmente. Por exemplo, o uso de câmeras em vias públicas pode ter levantado questões de privacidade 15 ou 20 anos atrás, mas adicionar tecnologia de reconhecimento facial precisa altera drasticamente essas implicações de privacidade.
Sistemas fáceis de modificar
Ao desenvolver máquinas que podem tomar suas próprias decisões - normalmente chamadas de sistemas autônomos - as questões éticas que surgem são indiscutivelmente mais preocupantes do que aquelas no reconhecimento de objetos. A autonomia aprimorada por IA está se desenvolvendo tão rapidamente que recursos que antes eram limitados a sistemas altamente projetados estão agora disponíveis para qualquer pessoa com uma caixa de ferramentas doméstica e alguma experiência em computador.
Pessoas sem formação em ciência da computação podem aprender algumas das ferramentas de inteligência artificial mais modernas, e os robôs estão mais do que dispostos a permitir que você execute suas técnicas de aprendizado de máquina recém-adquiridas neles. Existem fóruns online cheios de pessoas ansiosas para ajudar alguém a aprender como fazer isso.
Com ferramentas anteriores, já era fácil programar seu drone minimamente modificado para identificar uma bolsa vermelha e segui-la. A tecnologia de detecção de objetos mais recente libera a capacidade de rastrear uma variedade de coisas que se assemelham a mais de 9, 000 tipos de objetos diferentes. Combinado com o mais recente, drones mais manobráveis, não é difícil imaginar o quão facilmente eles poderiam ser equipados com armas. O que impede alguém de amarrar um explosivo ou outra arma a um drone equipado com essa tecnologia?
Usando uma variedade de técnicas, drones autônomos já são uma ameaça. Eles foram pegos jogando explosivos nas tropas dos EUA, fechando aeroportos e sendo usado em uma tentativa de assassinato do líder venezuelano Nicolas Maduro. Os sistemas autônomos que estão sendo desenvolvidos agora podem tornar o preparo desses ataques mais fácil e devastador.
Regulamentação ou conselhos de revisão?
Cerca de um ano atrás, um grupo de pesquisadores em inteligência artificial e robótica autônoma prometeu abster-se de desenvolver armas autônomas letais. Eles definiram armas autônomas letais como plataformas que são capazes de “selecionar e engajar alvos sem intervenção humana”. Como um pesquisador de robótica que não está interessado em desenvolver técnicas de direcionamento autônomo, Senti que a promessa não atingiu o ponto crucial do perigo. Ele encobriu questões éticas importantes que precisam ser abordadas, especialmente aqueles na ampla interseção de aplicações de drones que podem ser benignas ou violentas.
Para um, Os pesquisadores, empresas e desenvolvedores que escreveram os artigos e desenvolveram o software e os dispositivos geralmente não estão fazendo isso para criar armas. Contudo, eles podem inadvertidamente habilitar outros, com o mínimo de experiência, para criar tais armas.
O que podemos fazer para lidar com esse risco?
O regulamento é uma opção, e um já usado para proibir drones aéreos perto de aeroportos ou em torno de parques nacionais. Isso é útil, mas eles não impedem a criação de drones como arma. Os regulamentos de armas tradicionais não são um modelo suficiente, qualquer. Eles geralmente aumentam os controles sobre o material de origem ou o processo de fabricação. Isso seria quase impossível com sistemas autônomos, onde os materiais de origem são códigos de computador amplamente compartilhados e o processo de fabricação pode ocorrer em casa usando componentes prontos para uso.
Outra opção seria seguir os passos dos biólogos. Em 1975, eles realizaram uma conferência sobre os riscos potenciais do DNA recombinante em Asilomar, na Califórnia. Lá, os especialistas concordaram com as diretrizes voluntárias que direcionariam o curso do trabalho futuro. Para sistemas autônomos, tal resultado parece improvável neste ponto. Muitos projetos de pesquisa que poderiam ser usados no desenvolvimento de armas também têm resultados pacíficos e incrivelmente úteis.
Uma terceira opção seria estabelecer órgãos de autogovernança no nível da organização, como os conselhos de revisão institucional que atualmente supervisionam os estudos sobre assuntos humanos nas empresas, universidades e laboratórios governamentais. Esses conselhos consideram os benefícios para as populações envolvidas na pesquisa e criam formas de mitigar potenciais danos. Mas eles podem regular apenas a pesquisa feita dentro de suas instituições, o que limita o seu alcance.
Ainda, um grande número de pesquisadores cairia sob a alçada desses conselhos - dentro da comunidade autônoma de pesquisa em robótica, quase todos os apresentadores em conferências técnicas são membros de uma instituição. Conselhos de revisão de pesquisa seriam um primeiro passo em direção à autorregulação e poderiam sinalizar projetos que poderiam ser transformados em armas.
Vivendo com o perigo e a promessa
Muitos de meus colegas e eu estamos ansiosos para desenvolver a próxima geração de sistemas autônomos. Sinto que o potencial para o bem é promissor demais para ser ignorado. Mas também estou preocupado com os riscos que as novas tecnologias representam, especialmente se forem explorados por pessoas mal-intencionadas. No entanto, com uma organização cuidadosa e conversas informadas hoje, Acredito que podemos trabalhar para alcançar esses benefícios enquanto limitamos o potencial de danos.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.