Se você é fã da franquia de filmes "O Exterminador do Futuro", você já viu um vislumbre fictício assustador de um campo de batalha distópico de pesadelo no qual máquinas equipadas com inteligência artificial têm o poder irrestrito de matar humanos.
Embora armas totalmente autônomas - o termo técnico para robôs assassinos - ainda não sejam uma realidade, o rápido avanço da robótica e da inteligência artificial levanta o espectro de exércitos em breve tendo tanques e aeronaves capazes de atacar sem um humano nos controles.
De acordo com um relatório de 2017 do Center for a New American Security, mais de 30 países têm ou estão desenvolvendo aviões não tripulados armados. A agência de notícias russa TASS também noticiou em 2017 no país o desenvolvimento de um "módulo de combate" automatizado - um tanque robótico - capaz de utilizar inteligência artificial para identificar alvos e tomar decisões. E embora a política atual dos EUA exclua armas totalmente autônomas, o Pentágono está desenvolvendo robôs aéreos e terrestres que operariam em enxames de 250 ou mais, realizar vigilância e outras funções para apoiar as tropas humanas. E de acordo com o South China Morning Post, A China está trabalhando para desenvolver submarinos equipados com inteligência artificial que ajudem os comandantes na tomada de decisões táticas.
A rápida corrida para automatizar a guerra está alarmando os cientistas, e em todo o mundo, há um movimento crescente para deter o desenvolvimento de armas autônomas antes que a tecnologia tenha a chance de proliferar. Perto de 4, 000 pesquisadores e cientistas de inteligência artificial e robótica em outras áreas - incluindo a SpaceX e o fundador da Tesla, Elon Musk, O co-fundador da Apple, Steve Wozniak, e o já falecido astrofísico Stephen Hawking - assinaram uma carta aberta ao mundo, pedindo a proibição de "armas autônomas ofensivas que estão além do controle humano significativo". Organizações como a Campaign to Stop Killer Robots tornaram-se cada vez mais vocais sobre a necessidade de restrições a essa tecnologia.
"Estamos apenas a alguns anos de distância, "Toby Walsh, o Professor Scientia de Inteligência Artificial da University of New South Wales da Austrália, avisa em um e-mail. "Existem protótipos em todas as esferas de batalha - no ar, no chão, no mar e no fundo do mar. "
Walsh se envolveu no esforço há vários anos, quando ficou claro para ele que "uma corrida armamentista para desenvolver tais armas estava começando, e tivemos a oportunidade de prevenir o futuro distópico tantas vezes retratado por Hollywood. "
Walsh e outros pesquisadores de IA recentemente usaram sua proeminência no campo para exercer pressão. Depois do KAIST (Instituto Avançado de Ciência e Tecnologia da Coreia), uma universidade de pesquisa sul-coreana, lançou um novo centro dedicado às convergências de IA e defesa nacional, eles enviaram uma carta aberta ao presidente do KAIST, Sung-Chul Shin, ameaçar um boicote a menos que forneça garantias de que o centro não desenvolverá armas totalmente autônomas que carecem de controle humano significativo. (Sung posteriormente emitiu uma declaração afirmando que a universidade não desenvolveria tais armas, de acordo com o Times Higher Education.)
O movimento do robô anti-assassino também está de olho nos desenvolvimentos em Genebra, onde representantes de vários países se reuniram em abril de 2018 para uma conferência das Nações Unidas sobre o que fazer com as armas autônomas.
Richard Moyes, o diretor-gerente do Artigo 36, uma organização de controle de armas baseada no Reino Unido, diz em um e-mail que as armas autônomas podem corroer a estrutura legal que rege a guerra, que depende de humanos tomarem decisões sobre se o uso da força é legal em uma determinada situação. "Se as máquinas tiverem ampla licença para realizar ataques, essas avaliações jurídicas humanas não serão mais baseadas em uma compreensão real das circunstâncias no local, "escreve Moyes, um ganhador do Prêmio Nobel da Paz em 2017 por seu trabalho na redução de armas nucleares. "Isso abre o caminho para uma verdadeira desumanização do conflito."
Os EUA provavelmente apoiariam a proibição de robôs assassinos. Em 2012, o governo Obama emitiu uma diretiva - que a Casa Branca de Trump aparentemente decidiu continuar - exigindo que a tecnologia de armas autônomas fosse projetada "para permitir que comandantes e operadores exerçam níveis apropriados de julgamento humano sobre o uso da força". A diretiva também exige salvaguardas para proteger contra o mau funcionamento de armas autônomas e lançar ataques por conta própria. O diretor da Defense Advanced Research Projects Agency (DARPA), Steven Walker, disse em março que duvidava que os EUA algum dia permitiriam que as máquinas tomassem decisões sobre o uso de força letal, de acordo com The Hill.
Em um e-mail, O porta-voz da DARPA, Jared Adams, diz que a pesquisa da agência se concentra em "investigar maneiras de garantir que a tecnologia melhore a capacidade dos operadores humanos de tomar decisões rápidas em momentos críticos, em vez de minar essa capacidade". Há uma preocupação de que a confiança dos operadores humanos na automação possa reduzir sua consciência situacional quando precisam solicitá-la - um problema que Adams diz ser ilustrado pela queda do voo 447 da Air France em 2009 ". Por este motivo, A pesquisa da DARPA relacionada à autonomia busca encontrar um equilíbrio ideal entre os vários modos de operação, com ênfase em fornecer o máximo apoio à decisão para os combatentes, " ele diz.
Mas proibir robôs assassinos internacionalmente pode ser difícil. Bonnie Docherty, pesquisador sênior de armas da Human Rights Watch e diretor associado de conflito armado e proteção civil na Clínica Internacional de Direitos Humanos da Harvard Law School, diz em um e-mail que, embora a maioria dos países na conferência da ONU esteja preocupada com as armas autônomas, ainda não há consenso para uma proibição internacional juridicamente vinculativa.
A proibição de robôs assassinos funcionaria? Um antigo tratado internacional que proíbe armas químicas, por exemplo, aparentemente, não parou o uso de tais armas na guerra civil síria.
No entanto, Docherty argumentou que as proibições de armas químicas, minas antipessoal e munições cluster ainda salvaram vidas. "Essas leis vinculam os países que se juntam a eles, e estigmatizando armas problemáticas podem influenciar até mesmo países que não fazem parte. Qualquer lei - mesmo contra um crime amplamente aceito como assassinato - pode ser violada por um ator desonesto, mas isso não significa que tais leis não devam ser adotadas. A lei ainda tem um impacto significativo na conduta e um novo tratado internacional deve ser adotado para prevenir armas totalmente autônomas, " ela escreve.
Agora isso é interessanteO vídeo "Slaughterbots", criado com a ajuda da Universidade da Califórnia, Stuart Russell, professor de ciência da computação e engenharia de Berkeley, retrata um cenário horrível em que minúsculos drones rastreiam e assassinam indivíduos selecionados, que são identificados nas redes sociais. A ideia era dramatizar como a tecnologia poderia ser utilizada como arma de destruição em massa, Russell explicou em uma entrevista ao ABC7 News.