Manifestantes em Berlim participam da campanha "Stop Killer Robots" organizada pela ONG alemã "Facing Finance" para banir o que eles chamam de robôs assassinos. em março de 2019
Amazonas, A Microsoft e a Intel estão entre as principais empresas de tecnologia que colocam o mundo em risco por meio do desenvolvimento de robôs assassinos, de acordo com um relatório que entrevistou grandes atores do setor sobre sua postura em relação às armas autônomas letais.
A ONG holandesa Pax classificou 50 empresas por três critérios:se estavam desenvolvendo tecnologia que poderia ser relevante para IA mortal, se eles estavam trabalhando em projetos militares relacionados, e se eles se comprometeram a se abster de contribuir no futuro.
"Por que empresas como a Microsoft e a Amazon não negam que estão atualmente desenvolvendo essas armas altamente polêmicas, que poderia decidir matar pessoas sem envolvimento humano direto? "disse Frank Slijper, autor principal do relatório publicado esta semana.
O uso de IA para permitir que sistemas de armas selecionem e ataquem alvos de maneira autônoma gerou debates éticos nos últimos anos, com os críticos advertindo que eles colocariam em risco a segurança internacional e anunciariam uma terceira revolução na guerra após a pólvora e a bomba atômica.
Um painel de especialistas do governo debateu opções de políticas relacionadas a armas autônomas letais em uma reunião da Convenção das Nações Unidas sobre Certas Armas Convencionais em Genebra, na quarta-feira.
Google, que publicou no ano passado princípios orientadores evitando o uso de IA em sistemas de armas, estava entre sete empresas envolvidas nas "melhores práticas" na análise que abrangeu 12 países, assim como o Softbank do Japão, mais conhecido por seu robô Pepper humanóide.
Vinte e duas empresas eram de "preocupação média, "enquanto 21 caiu em uma categoria de" alta preocupação ", notavelmente Amazon e Microsoft, que estão concorrendo a um contrato de US $ 10 bilhões com o Pentágono para fornecer a infraestrutura de nuvem para os militares dos EUA.
Outros no grupo de "grande preocupação" incluem Palantir, uma empresa com raízes em uma organização de capital de risco apoiada pela CIA que recebeu um contrato de US $ 800 milhões para desenvolver um sistema de IA "que pode ajudar os soldados a analisar uma zona de combate em tempo real".
"Armas autônomas inevitavelmente se tornarão armas escaláveis de destruição em massa, porque se o humano não estiver no laço, então, uma única pessoa pode lançar um milhão de armas ou cem milhões de armas, "Stuart Russell, um professor de ciência da computação na Universidade da Califórnia, Berkeley disse à AFP na quarta-feira.
“O fato é que as armas autônomas serão desenvolvidas por corporações, e em termos de uma campanha para evitar que armas autônomas se espalhem, eles podem desempenhar um papel muito importante, " ele adicionou.
O desenvolvimento de IA para fins militares gerou debates e protestos na indústria:no ano passado, o Google se recusou a renovar um contrato com o Pentágono chamado Projeto Maven, que usava aprendizado de máquina para distinguir pessoas e objetos em vídeos de drones.
Também saiu da corrida para Joint Enterprise Defense Infrastructure (JEDI), o contrato de nuvem que a Amazon e a Microsoft esperam obter.
O relatório observou que os funcionários da Microsoft também expressaram sua oposição a um contrato do Exército dos EUA para um fone de ouvido de realidade aumentada, HoloLens, que visa "aumentar a letalidade" no campo de batalha.
Como eles podem se parecer
De acordo com Russell, "qualquer coisa que seja atualmente uma arma, as pessoas estão trabalhando em versões autônomas, sejam tanques, avião de combate, ou submarinos. "
A Harpia de Israel é um drone autônomo que já existe, "vadiar" em uma área-alvo e selecionar os locais a serem atingidos.
Mais preocupantes ainda são as novas categorias de armas autônomas que ainda não existem - podem incluir minidrones armados como os apresentados no curta-metragem "Slaughterbots" de 2017.
"Com esse tipo de arma, você poderia enviar um milhão deles em um contêiner ou aeronave de carga - portanto, eles têm a capacidade destrutiva de uma bomba nuclear, mas deixam todos os edifícios para trás, "disse Russell.
Usando tecnologia de reconhecimento facial, os drones poderiam "exterminar um grupo étnico ou gênero, ou usando informações de mídia social, você pode eliminar todas as pessoas com uma visão política. "
Em abril, a União Europeia publicou diretrizes sobre como empresas e governos devem desenvolver IA, incluindo a necessidade de supervisão humana, trabalhando para o bem-estar social e ambiental de uma forma não discriminatória, e respeitando a privacidade.
Russell argumentou que era essencial dar o próximo passo na forma de uma proibição internacional da IA letal, que poderia ser resumido como "máquinas que podem decidir matar humanos não devem ser desenvolvidas, implantado, ou usado. "
© 2019 AFP