• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A IA já foi transformada em arma - e isso mostra por que devemos banir robôs assassinos
    p Crédito:Oleg Yarko / Shutterstock

    p Uma linha divisória está surgindo no debate sobre os chamados robôs assassinos. Muitos países querem ver uma nova lei internacional sobre sistemas de armas autônomos que podem atingir e matar pessoas sem intervenção humana. Mas os países que já desenvolvem tais armas estão tentando destacar seus supostos benefícios. p Eu testemunhei esse abismo crescente em uma recente reunião da ONU com mais de 70 países em Genebra, onde aqueles a favor de armas autônomas, incluindo os EUA, Austrália e Coreia do Sul, estavam mais vocais do que nunca. Na reunião, os EUA alegaram que tais armas poderiam realmente tornar mais fácil o cumprimento do Direito Internacional Humanitário, tornando a ação militar mais precisa.

    p No entanto, é altamente especulativo dizer que os "robôs assassinos" algum dia serão capazes de seguir o direito humanitário. E embora os políticos continuem a discutir sobre isso, a difusão da autonomia e da inteligência artificial na tecnologia militar existente já está estabelecendo padrões indesejáveis ​​para seu papel no uso da força.

    p Uma série de cartas abertas de pesquisadores proeminentes se manifestando contra o armamento da inteligência artificial ajudou a trazer o debate sobre os sistemas militares autônomos à atenção do público. O problema é que o debate é enquadrado como se essa tecnologia fosse algo do futuro. Na verdade, as questões que levanta já estão efetivamente sendo tratadas pelos sistemas existentes.

    p A maioria dos sistemas de defesa aérea já tem autonomia significativa no processo de seleção de alvos, e aeronaves militares têm recursos altamente automatizados. Isso significa que os "robôs" já estão envolvidos na identificação e engajamento de alvos.

    p Enquanto isso, outra questão importante levantada pela tecnologia atual está faltando na discussão em andamento. Drones operados remotamente são usados ​​atualmente por militares de vários países para lançar bombas sobre alvos. Mas sabemos por incidentes no Afeganistão e em outros lugares que as imagens de drones não são suficientes para distinguir claramente entre civis e combatentes. Também sabemos que a tecnologia de IA atual pode conter viés significativo que afeta sua tomada de decisão, frequentemente com efeitos prejudiciais.

    p Os humanos ainda pressionam o gatilho, mas por quanto tempo? Crédito:Burlingham / Shutterstock

    p Como as futuras aeronaves totalmente autônomas provavelmente serão usadas de maneiras semelhantes aos drones, eles provavelmente seguirão as práticas estabelecidas pelos drones. No entanto, os estados que usam tecnologias autônomas existentes as estão excluindo do debate mais amplo, referindo-se a elas como "semiautônomos" ou os chamados "sistemas legados". Novamente, isso faz com que a questão dos "robôs assassinos" pareça mais futurista do que realmente é. Isso também impede que a comunidade internacional examine mais de perto se esses sistemas são fundamentalmente apropriados de acordo com o direito humanitário.

    p Vários princípios fundamentais do direito internacional humanitário exigem julgamentos humanos deliberados de que as máquinas são incapazes. Por exemplo, a definição legal de quem é civil e quem é combatente não está escrita de uma forma que possa ser programada em IA, e as máquinas não têm consciência situacional e capacidade de inferir coisas necessárias para tomar essa decisão.

    p Tomada de decisão invisível

    p Mais profundamente, quanto mais os alvos são escolhidos e potencialmente atacados por máquinas, menos sabemos sobre como essas decisões são tomadas. Os drones já dependem fortemente de dados de inteligência processados ​​por algoritmos de "caixa preta" que são muito difíceis de entender para escolher seus alvos propostos. Isso torna mais difícil para os operadores humanos que realmente pressionam o gatilho questionar propostas de alvos.

    p Enquanto a ONU continua a debater esta questão, é importante notar que a maioria dos países a favor do banimento de armas autônomas são países em desenvolvimento, que são normalmente menos propensos a comparecer às negociações internacionais de desarmamento. Portanto, o fato de estarem dispostos a falar veementemente contra as armas autônomas torna isso ainda mais significativo. Sua história de experiências de intervenções e invasões de mais ricos, países mais poderosos (como alguns dos partidários de armas autônomas) também nos lembram que são os que mais correm risco com essa tecnologia.

    p Dado o que sabemos sobre os sistemas autônomos existentes, devemos nos preocupar com o fato de que "robôs assassinos" violem ainda mais o direito humanitário, não menos, provável. Essa ameaça só pode ser evitada por meio da negociação de novas leis internacionais que restrinjam seu uso. p Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com