Os militares dos EUA já estão testando um Sistema Robótico Armado Avançado Modular. Crédito:Lance Cpl. Julien Rodarte, Corpo de Fuzileiros Navais dos EUA
Ao redigir um tratado sobre as leis da guerra no final do século 19, diplomatas não podiam prever o futuro do desenvolvimento de armas. Mas eles adotaram um padrão legal e moral para julgar novas tecnologias não cobertas pela linguagem do tratado existente.
Este padrão, conhecida como cláusula Martens, sobreviveu a gerações de Direito Internacional Humanitário e ganhou relevância renovada em um mundo onde as armas autônomas estão prestes a fazer suas próprias determinações sobre quem atirar e quando. A Cláusula Martens exorta os países a não usarem armas que se afastem "dos princípios de humanidade e dos ditames da consciência pública".
Fui o principal autor de um novo relatório da Human Rights Watch e da Harvard Law School International Human Rights Clinic que explica por que armas totalmente autônomas iriam contra os princípios da humanidade e os ditames da consciência pública. Descobrimos que, para cumprir a Cláusula Martens, os países devem adotar um tratado proibindo o desenvolvimento, produção e uso dessas armas.
Representantes de mais de 70 nações se reunirão de 27 a 31 de agosto nas Nações Unidas em Genebra para debater como resolver os problemas com o que eles chamam de sistemas de armas autônomas letais. Estes paises, que são partes da Convenção sobre Armas Convencionais, discutimos o assunto por cinco anos. Meus coautores e eu acreditamos que é hora de eles agirem e concordarem em começar a negociar uma proibição no próximo ano.
Fazendo regras para o desconhecido
A cláusula Martens fornece uma base de proteção para civis e soldados na ausência de uma lei específica do tratado. A cláusula também estabelece um padrão para a avaliação de novas situações e tecnologias não previstas anteriormente.
Armas totalmente autônomas, às vezes chamados de "robôs assassinos, "selecionaria e engajaria alvos sem controle humano significativo. Eles seriam um passo perigoso além dos drones armados atuais porque não haveria nenhum humano no circuito para determinar quando atirar e em que alvo. Embora armas totalmente autônomas ainda não existam, China, Israel, Rússia, Coreia do Sul, o Reino Unido e os Estados Unidos estão todos trabalhando para desenvolvê-los. Eles argumentam que a tecnologia processaria informações mais rapidamente e manteria os soldados fora do campo de batalha.
A possibilidade de que armas totalmente autônomas logo se tornem realidade torna imperativo que esses e outros países apliquem a Cláusula Martens e avaliem se a tecnologia ofenderia a humanidade básica e a consciência pública. Nossa análise conclui que armas totalmente autônomas falhariam no teste em ambos os casos.
Princípios da humanidade
A história da Cláusula Martens mostra que é um princípio fundamental do Direito Internacional Humanitário. Originário da Convenção de Haia de 1899, versões dele aparecem em todas as quatro Convenções de Genebra e no Protocolo Adicional I. É citado em vários tratados de desarmamento. Em 1995, As preocupações com a Cláusula Martens motivaram os países a adotar uma proibição preventiva dos lasers cegantes.
Os princípios de humanidade requerem um tratamento humano dos outros e respeito pela vida e dignidade humanas. Armas totalmente autônomas não poderiam atender a esses requisitos porque seriam incapazes de sentir compaixão, uma emoção que inspira as pessoas a minimizar o sofrimento e a morte. As armas também não teriam o julgamento legal e ético necessário para garantir a proteção de civis em situações de conflito complexas e imprevisíveis.
Sob supervisão humana - por enquanto. Crédito:Pfc. Rhita Daniel, Corpo de Fuzileiros Navais dos EUA
Além disso, como máquinas inanimadas, essas armas não podiam compreender verdadeiramente o valor da vida de uma pessoa ou o significado de sua perda. Seus algoritmos traduziriam vidas humanas em valores numéricos. Ao tomar decisões letais com base em tais algoritmos, eles reduziriam seus alvos humanos - sejam civis ou soldados - a objetos, minando sua dignidade humana.
Ditados de consciência pública
A crescente oposição às armas totalmente autônomas mostra que elas também entram em conflito com os ditames da consciência pública. Governos, especialistas e o público em geral se opuseram, muitas vezes por motivos morais, à possibilidade de perder o controle humano sobre o uso da força.
A data, 26 países apoiaram expressamente a proibição, incluindo a China. A maioria dos países que falaram nas reuniões da ONU sobre armas convencionais pediram a manutenção de alguma forma de controle humano significativo sobre o uso da força. Exigir tal controle é efetivamente o mesmo que proibir armas que operam sem uma pessoa que decida quando matar.
Milhares de cientistas e especialistas em inteligência artificial endossaram a proibição e exigiram ação das Nações Unidas. Em julho de 2018, eles prometeram não ajudar no desenvolvimento ou uso de armas totalmente autônomas. Grandes corporações também pediram a proibição.
Mais de 160 líderes religiosos e mais de 20 ganhadores do Prêmio Nobel da Paz também condenaram a tecnologia e apoiaram sua proibição. Várias pesquisas de opinião pública nacionais e internacionais descobriram que a maioria das pessoas que responderam se opôs ao desenvolvimento e ao uso de armas totalmente autônomas.
A campanha para parar os robôs assassinos, uma coalizão de 75 organizações não governamentais de 42 países, liderou a oposição de grupos não governamentais. Human Rights Watch, para o qual trabalho, co-fundou e coordena a campanha.
Outros problemas com robôs assassinos
Armas totalmente autônomas ameaçariam mais do que a humanidade e a consciência pública. Eles provavelmente violariam outras regras-chave do direito internacional. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.
Além disso, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.
Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.