Crédito:Unsplash/CC0 Public Domain
Sistemas letais de armas autônomas exigem consideração cuidadosa, mas cenários de pesadelo do futuro não se tornarão realidade tão cedo, diz um especialista em ética militar da UNSW Canberra.
O termo 'robôs assassinos' evoca imagens de cenários de ficção científica onde as guerras estão sendo travadas por soldados do tipo Exterminador do Futuro, mas de acordo com o especialista em ética militar da UNSW Canberra Deane-Peter Baker, não é tão assustador ou cinematográfico.
Na verdade, robôs assassinos, ou sistemas letais de armas autônomas (LEIS), podem realmente salvar vidas no campo de batalha.
O último livro do professor associado Baker, "Devemos banir robôs assassinos?", baseia-se em sua experiência no Painel Internacional sobre o Regulamento de Armas Autônomas (IPRAW) de 2017 a 2019.
IPRAW é uma rede internacional de pesquisadores encarregados de fornecer orientação apartidária às delegações nacionais envolvidas no debate da ONU sobre a proibição ou regulamentação das LEIS.
"Este livro é minha tentativa de reunir meus pontos de vista sobre esse tópico, que surgiram do meu tempo como palestrante do IPRAW e outros trabalhos subsequentes focados em políticas sobre esse tópico", disse A/Prof. disse Baker.
Ele explicou que há dois argumentos principais para banir as LEIS. Um enfoca as consequências potenciais de permitir que as LEIS sejam usadas na guerra.
"Por exemplo, os oponentes estão preocupados que o LAWS não seja capaz de operar dentro dos limites da lei de conflito armado", disse A/Prof. disse Baker.
"A preocupação aqui é que eles usem a força de maneira indiscriminada ou desproporcional.
"O outro tipo principal de argumento é que, à parte as consequências, é simplesmente fundamentalmente errado permitir que uma máquina faça a escolha de matar um ser humano."
De acordo com A/Prof. Baker, os estados menos desenvolvidos tendem a ser a favor da proibição, enquanto os estados poderosos e tecnologicamente avançados não são particularmente favoráveis.
"Os defensores do LAWS argumentam que esses sistemas podem salvar vidas de várias maneiras", disse ele.
"Por exemplo, há a alegação de que os robôs podem ser enviados para fazer trabalhos 'chatos, perigosos e sujos' sem ter que arriscar um soldado humano, marinheiro ou aviador - muito melhor para uma máquina ser destruída do que para um membro do exército armado. forças para serem mortas ou mutiladas.
"O outro tipo principal de argumento é que, à parte as consequências, é simplesmente fundamentalmente errado permitir que uma máquina faça a escolha de matar um ser humano."
"Eles também argumentam que o LAWS será menos propenso a usar a força indiscriminada, porque eles não ficam com medo, com raiva ou confusos da maneira que os combatentes humanos podem no meio do combate."
A/Prof. Baker disse que também há o argumento de que uma proibição internacional não impedirá que atores malignos desenvolvam e usem esses sistemas, portanto, não devemos dar a eles uma vantagem operacional significativa ao adotar uma proibição e nos proibir de usá-los.
Então, nos encontraremos nessa situação do Exterminador em breve?
"Estamos muito longe disso acontecer, se é que é verdade!" A/Prof. Baker assegurou.
“Acho que não há dúvida de que começaremos a ver cada vez mais armas autônomas letais participando de guerras – a ONU acredita que já vimos os primeiros humanos serem mortos por armas autônomas, no conflito do Iêmen. será improvável que desempenhe muito mais do que um papel suplementar por algum tempo."
No médio prazo, ele disse que sistemas altamente sofisticados serão muito caros e, portanto, raros, enquanto sistemas autônomos simples serão limitados por capacidade limitada.
"No longo prazo, começaremos a ver sistemas mais sofisticados se tornando mais acessíveis e, portanto, mais prolíficos, e os sistemas mais simples se tornarão mais capazes", disse A/Prof. disse Baker.
Ele espera que os leitores do livro tenham uma compreensão mais clara dos argumentos que foram levantados em favor da proibição de robôs assassinos.
"Mesmo que eles não concordem com minha conclusão, espero que seu pensamento tenha sido desafiado e seus pontos de vista aguçados no processo."