• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Israel é acusado de usar IA para atingir milhares de pessoas em Gaza, à medida que algoritmos assassinos ultrapassam a lei internacional

    Crédito:Pixabay/CC0 Domínio Público


    O exército israelita utilizou um novo sistema de inteligência artificial (IA) para gerar listas de dezenas de milhares de alvos humanos para potenciais ataques aéreos em Gaza, de acordo com um relatório publicado na semana passada. O relatório vem da agência sem fins lucrativos +972 Magazine, dirigida por jornalistas israelenses e palestinos.



    O relatório cita entrevistas com seis fontes não identificadas da inteligência israelense. As fontes afirmam que o sistema, conhecido como Lavender, foi usado com outros sistemas de IA para atingir e assassinar supostos militantes – muitos deles nas suas próprias casas – causando um grande número de vítimas civis.

    De acordo com outro relatório do Guardian, baseado nas mesmas fontes do relatório +972, um oficial de inteligência disse que o sistema “tornou mais fácil” a realização de um grande número de ataques, porque “a máquina o fez com frieza”.

    À medida que os militares de todo o mundo correm para utilizar a IA, estes relatórios mostram-nos como poderá ser:uma guerra à velocidade das máquinas, com precisão limitada e pouca supervisão humana, com um custo elevado para os civis.

    A IA militar em Gaza não é nova


    A Força de Defesa Israelense nega muitas das afirmações destes relatórios. Numa declaração ao Guardian, afirmou que “não utiliza um sistema de inteligência artificial que identifique agentes terroristas”. Ele disse que Lavender não é um sistema de IA, mas “simplesmente um banco de dados cujo objetivo é fazer referência cruzada de fontes de inteligência”.

    Mas em 2021, o Jerusalem Post noticiou que um oficial dos serviços de inteligência afirmava que Israel tinha acabado de vencer a sua primeira “guerra de IA” – um conflito anterior com o Hamas – utilizando uma série de sistemas de aprendizagem automática para analisar dados e produzir alvos. No mesmo ano, um livro chamado The Human-Machine Team, que delineava uma visão da guerra alimentada pela IA, foi publicado sob um pseudónimo por um autor recentemente revelado como sendo o chefe de uma importante unidade clandestina de inteligência israelita.

    No ano passado, outro relatório +972 disse que Israel também usa um sistema de IA chamado Habsora para identificar potenciais edifícios e instalações militantes para bombardear. Segundo o relatório, Habsora gera alvos “quase automaticamente”, e um ex-oficial de inteligência descreveu-o como “uma fábrica de assassinatos em massa”.

    O recente relatório +972 também afirma que um terceiro sistema, chamado Where's Daddy?, monitora alvos identificados por Lavender e alerta os militares quando eles voltam para casa, muitas vezes para suas famílias.

    Morte por algoritmo


    Vários países estão recorrendo a algoritmos em busca de vantagem militar. O Projeto Maven, das forças armadas dos EUA, fornece alvos de IA que foram usados ​​no Oriente Médio e na Ucrânia. A China também está a apressar-se para desenvolver sistemas de IA para analisar dados, selecionar alvos e ajudar na tomada de decisões.

    Os defensores da IA ​​militar argumentam que ela permitirá tomadas de decisão mais rápidas, maior precisão e redução de baixas em guerra.

    No entanto, no ano passado, o Middle East Eye informou que um gabinete de inteligência israelita afirmou que a realização de uma revisão humana de todos os alvos gerados pela IA em Gaza “não era de todo viável”. Outra fonte disse ao +972 que eles pessoalmente “investiriam 20 segundos para cada alvo”, sendo apenas um “carimbo” de aprovação.

    A resposta das Forças de Defesa Israelenses ao relatório mais recente diz que “os analistas devem realizar exames independentes, nos quais verificam se os alvos identificados atendem às definições relevantes de acordo com o direito internacional”.

    Quanto à precisão, o último relatório +972 afirma que Lavender automatiza o processo de identificação e verificação cruzada para garantir que um alvo potencial seja uma figura militar sênior do Hamas. De acordo com o relatório, Lavender afrouxou os critérios de seleção para incluir pessoal de escalão inferior e padrões de evidência mais fracos, e cometeu erros em “aproximadamente 10% dos casos”.

    O relatório também afirma que um oficial da inteligência israelense disse que devido ao Onde está o papai? sistema, os alvos seriam bombardeados em suas casas "sem hesitação, como primeira opção", causando vítimas civis. O exército israelita afirma que “rejeita abertamente a alegação relativa a qualquer política de matar dezenas de milhares de pessoas nas suas casas”.

    Regras para IA militar?


    À medida que o uso militar da IA ​​se torna mais comum, as preocupações éticas, morais e legais têm sido em grande parte deixadas de lado. Até à data, não existem regras claras, universalmente aceites ou juridicamente vinculativas sobre a IA militar.

    As Nações Unidas têm discutido “sistemas de armas letais autónomos” há mais de dez anos. São dispositivos que podem tomar decisões de direcionamento e disparo sem intervenção humana, às vezes conhecidos como "robôs assassinos". No ano passado assistimos a algum progresso.

    A Assembleia Geral da ONU votou a favor de um novo projeto de resolução para garantir que os algoritmos “não devem ter controle total das decisões que envolvem matar”. Em Outubro passado, os EUA também divulgaram uma declaração sobre o uso militar responsável da IA ​​e da autonomia, que desde então foi endossada por outros 50 estados. A primeira cimeira sobre a utilização responsável da IA ​​militar também foi realizada no ano passado, co-organizada pelos Países Baixos e pela República da Coreia.

    No geral, as regras internacionais sobre a utilização da IA ​​militar têm dificuldade em acompanhar o fervor dos Estados e das empresas de armamento pela guerra de alta tecnologia possibilitada pela IA.

    Enfrentando o 'desconhecido'


    Algumas startups israelenses que fabricam produtos habilitados para IA estão supostamente fazendo do seu uso um argumento de venda em Gaza. No entanto, os relatórios sobre a utilização de sistemas de IA em Gaza sugerem até que ponto a IA fica aquém do sonho da guerra de precisão, criando, em vez disso, graves danos humanitários.

    A escala industrial na qual sistemas de IA como o Lavender podem gerar alvos também efetivamente “desloca os humanos por padrão” na tomada de decisões.

    A disponibilidade para aceitar sugestões de IA com quase nenhum escrutínio humano também alarga o âmbito dos alvos potenciais, causando maiores danos.

    Estabelecendo um precedente


    Os relatórios sobre Lavender e Habsora nos mostram o que a IA militar atual já é capaz de fazer. Os riscos futuros da IA ​​militar podem aumentar ainda mais.

    O analista militar chinês Chen Hanghui imaginou uma futura “singularidade no campo de batalha”, por exemplo, em que as máquinas tomam decisões e executam ações a um ritmo demasiado rápido para um ser humano acompanhar. Neste cenário, somos pouco mais que espectadores ou vítimas.

    Um estudo publicado no início deste ano soou outra nota de alerta. Investigadores norte-americanos realizaram uma experiência em que grandes modelos de linguagem, como o GPT-4, desempenharam o papel das nações num exercício de jogos de guerra. Os modelos quase inevitavelmente ficaram presos em corridas armamentistas e escalaram conflitos de maneiras imprevisíveis, incluindo o uso de armas nucleares.

    A forma como o mundo reage às actuais utilizações da IA ​​militar – como estamos a ver em Gaza – irá provavelmente estabelecer um precedente para o futuro desenvolvimento e utilização da tecnologia.

    Fornecido por The Conversation


    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com