• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Drones logo decidirão quem matar
    p Em breve, os algoritmos poderão decidir a quem visar. Crédito:Força Aérea dos EUA

    p O Exército dos EUA anunciou recentemente que está desenvolvendo os primeiros drones que podem localizar e visar veículos e pessoas usando inteligência artificial (IA). Este é um grande passo em frente. Considerando que os drones militares atuais ainda são controlados por pessoas, esta nova tecnologia decidirá quem matar quase sem envolvimento humano. p Depois de concluído, esses drones representarão a militarização final da IA ​​e desencadearão vastas implicações legais e éticas para a sociedade em geral. Há uma chance de que a guerra passe da luta para o extermínio, perder qualquer aparência de humanidade no processo. Ao mesmo tempo, poderia alargar a esfera da guerra para que as empresas, engenheiros e cientistas que constroem IA tornam-se alvos militares válidos.

    p Drones militares letais existentes, como o MQ-9 Reaper, são cuidadosamente controlados e pilotados via satélite. Se um piloto joga uma bomba ou dispara um míssil, um operador de sensor humano o guia ativamente até o alvo escolhido usando um laser.

    p Em última análise, a tripulação tem a ética final, responsabilidade legal e operacional por matar alvos humanos designados. Como afirma um operador do Reaper:"Tenho a mentalidade de permitir que um insurgente, por mais importante que seja um alvo, fugir em vez de dar um tiro arriscado que pode matar civis. "

    p Mesmo com essas mortes por drones, emoções humanas, julgamentos e ética sempre permaneceram no centro da guerra. A existência de trauma mental e transtorno de estresse pós-traumático (PTSD) entre operadores de drones mostra o impacto psicológico do assassinato à distância.

    p Um piloto MQ-9 Reaper. Crédito:Força Aérea dos EUA

    p E isso realmente aponta para um possível argumento militar e ético de Ronald Arkin, em apoio a drones assassinos autônomos. Talvez se esses drones soltarem as bombas, problemas psicológicos entre os membros da tripulação podem ser evitados. A fraqueza desse argumento é que você não precisa ser responsável por matar para ficar traumatizado por isso. Especialistas em inteligência e outros militares analisam regularmente imagens gráficas de ataques de drones. Pesquisas mostram que é possível sofrer danos psicológicos ao ver frequentemente imagens de violência extrema.

    p Quando entrevistei mais de 100 membros da equipe Reaper para um próximo livro, cada pessoa com quem falei que conduziu ataques letais com drones acreditava que, em última análise, deve ser um humano que puxa o gatilho final. Tire o humano e você também tira a humanidade da decisão de matar.

    p Consequências graves

    p A perspectiva de drones totalmente autônomos alteraria radicalmente os complexos processos e decisões por trás dos assassinatos militares. Mas a responsabilidade legal e ética não desaparece de alguma forma se você remover a supervisão humana. Em vez de, a responsabilidade recairá cada vez mais sobre outras pessoas, incluindo cientistas de inteligência artificial.

    p As implicações legais desses desenvolvimentos já estão se tornando evidentes. De acordo com o Direito Internacional Humanitário atual, Instalações de "uso duplo" - aquelas que desenvolvem produtos para aplicações civis e militares - podem ser atacadas nas circunstâncias certas. Por exemplo, na Guerra do Kosovo de 1999, a refinaria de petróleo de Pancevo foi atacada porque podia abastecer tanques iugoslavos e também carros civis.

    p Um MQ-9 Reaper. Crédito:Força Aérea dos EUA

    p Com um sistema autônomo de armas drones, certas linhas de código de computador quase certamente seriam classificadas como de uso duplo. Empresas como o Google, seus funcionários ou seus sistemas, pode tornar-se sujeito a ataques de um estado inimigo. Por exemplo, se o software de reconhecimento de imagem de AI do Google, Projeto Maven, for incorporado a um drone militar autônomo americano, O Google pode se ver envolvido no negócio de "matar" drones, assim como qualquer outro contribuinte civil para esses sistemas autônomos letais.

    p Eticamente, existem questões ainda mais sombrias. O ponto principal dos algoritmos de autoaprendizagem - programas que aprendem independentemente de quaisquer dados que podem coletar - que a tecnologia usa é que eles se tornam melhores em qualquer tarefa que lhes seja dada. Se um drone autônomo letal deve melhorar em seu trabalho por meio da autoaprendizagem, alguém precisará decidir sobre um estágio de desenvolvimento aceitável - quanto ele ainda precisa aprender - no qual ele pode ser implantado. No aprendizado de máquina militarizado, isso significa político, Os líderes militares e da indústria terão de especificar quantas mortes de civis serão consideradas aceitáveis ​​à medida que a tecnologia for refinada.

    p Experiências recentes de IA autônoma na sociedade devem servir de alerta. O experimento fatal do Uber com um Tesla autônomo praticamente garante que haverá mortes involuntárias por drones autônomos enquanto os bugs de computador são corrigidos.

    p Se as máquinas forem deixadas para decidir quem morre, especialmente em grande escala, então o que estamos testemunhando é o extermínio. Qualquer governo ou militar que desencadeasse tais forças violaria quaisquer valores que alegasse estar defendendo. Em comparação, um piloto de drone lutando com uma decisão de "matar ou não matar" torna-se o último vestígio da humanidade no frequentemente desumano negócio da guerra. p Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.




    © Ciência https://pt.scienceaq.com