• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Pentágono adota novos princípios éticos para o uso de IA na guerra

    Neste 20 de dezembro, 2019, file photo O secretário de Defesa, Mark Esper, fala durante uma entrevista coletiva no Pentágono em Washington. O Pentágono está adotando novos princípios éticos enquanto se prepara para acelerar o uso da tecnologia de inteligência artificial no campo de batalha. (AP Photo / Susan Walsh, Arquivo)

    O Pentágono está adotando novos princípios éticos enquanto se prepara para acelerar o uso da tecnologia de inteligência artificial no campo de batalha.

    Os novos princípios exigem que as pessoas "exerçam níveis adequados de julgamento e cuidado" ao implantar e usar sistemas de IA, como aqueles que fazem a varredura de imagens aéreas em busca de alvos.

    Eles também dizem que as decisões tomadas por sistemas automatizados devem ser "rastreáveis" e "governáveis, "que significa" deve haver uma maneira de desengajá-los ou desativá-los "se eles estiverem demonstrando um comportamento não intencional, disse o tenente-general da Força Aérea Jack Shanahan, diretor do Centro Conjunto de Inteligência Artificial do Pentágono.

    O impulso do Pentágono para acelerar seus recursos de IA alimentou uma briga entre empresas de tecnologia por um contrato de computação em nuvem de US $ 10 bilhões conhecido como Joint Enterprise Defense Infrastructure, ou JEDI. A Microsoft ganhou o contrato em outubro, mas não conseguiu iniciar o projeto de 10 anos porque a Amazon processou o Pentágono, argumentando que a antipatia do presidente Donald Trump pela Amazon e seu CEO Jeff Bezos prejudicou as chances da empresa de vencer a licitação.

    Uma diretiva militar existente de 2012 exige que os humanos controlem as armas automatizadas, mas não aborda os usos mais amplos da IA. Os novos princípios dos EUA destinam-se a orientar as aplicações de combate e não combate, desde a coleta de informações e operações de vigilância até a previsão de problemas de manutenção em aviões ou navios.

    A abordagem delineada na segunda-feira segue as recomendações feitas no ano passado pelo Defense Innovation Board, um grupo liderado pelo ex-CEO do Google Eric Schmidt.

    Embora o Pentágono tenha reconhecido que a IA "levanta novas ambiguidades éticas e riscos, “os novos princípios ficam aquém das restrições mais fortes defendidas pelos defensores do controle de armas.

    "Eu me preocupo que os princípios sejam um pouco como um projeto de lavagem ética, "disse Lucy Suchman, um antropólogo que estuda o papel da IA ​​na guerra. "A palavra 'apropriado' está aberta a muitas interpretações."

    Shanahan disse que os princípios são intencionalmente amplos para evitar algemar os militares dos EUA com restrições específicas que podem se tornar desatualizadas.

    "A tecnologia se adapta. A tecnologia evolui, " ele disse.

    O Pentágono atingiu um obstáculo em seus esforços de IA em 2018, depois que protestos internos no Google levaram a empresa de tecnologia a abandonar o Projeto Maven dos militares, que usa algoritmos para interpretar imagens aéreas de zonas de conflito. Desde então, outras empresas preencheram o vácuo. Shanahan disse que os novos princípios estão ajudando a recuperar o apoio da indústria de tecnologia, onde "havia uma sede de ter essa discussão."

    "Às vezes acho que a angústia é um pouco exagerada, mas temos pessoas que têm sérias preocupações em trabalhar com o Departamento de Defesa, " ele disse.

    Shanahan disse que a orientação também ajuda a garantir a vantagem tecnológica americana, já que a China e a Rússia buscam a IA militar com pouca atenção às questões éticas.

    A professora de direito da Universidade de Richmond, Rebecca Crootof, disse que a adoção de princípios é um bom primeiro passo, mas os militares precisarão mostrar que podem avaliar criticamente os enormes acúmulos de dados usados ​​por sistemas de IA, bem como seus riscos de segurança cibernética.

    Crootof disse que também espera que a ação dos EUA ajude a estabelecer normas internacionais em torno do uso militar de IA.

    "Se os EUA forem considerados levando as normas éticas de IA a sério, por padrão, eles se tornam um assunto mais sério, " ela disse.

    © 2020 Associated Press. Todos os direitos reservados. Este material não pode ser publicado, transmissão, reescrito ou redistribuído sem permissão.




    © Ciência https://pt.scienceaq.com