Um novo artigo da RAND Corporation concluiu que a inteligência artificial tem o potencial de derrubar as bases da dissuasão nuclear até o ano 2040.
Embora as máquinas do juízo final controladas por IA sejam consideradas improváveis, os perigos da inteligência artificial para a segurança nuclear residem em seu potencial para encorajar os humanos a assumir riscos apocalípticos, de acordo com o jornal.
Durante a Guerra Fria, a condição de destruição mútua assegurada manteve uma paz incômoda entre as superpotências, garantindo que qualquer ataque seria enfrentado por uma retaliação devastadora. Desse modo, a destruição mútua garantida encorajou a estabilidade estratégica ao reduzir os incentivos para que qualquer um dos países tomasse medidas que poderiam escalar para uma guerra nuclear.
A nova publicação da RAND diz que nas próximas décadas, a inteligência artificial tem o potencial de erodir a condição de destruição mútua garantida e minar a estabilidade estratégica. Tecnologias aprimoradas de sensores podem introduzir a possibilidade de que forças retaliatórias, como mísseis móveis e submarinos, sejam alvejadas e destruídas.
As nações podem ser tentadas a buscar capacidades de primeiro ataque como meio de obter vantagem de barganha sobre seus rivais, mesmo que não tenham intenção de realizar um ataque, pesquisadores dizem. Isso prejudica a estabilidade estratégica porque, mesmo que o estado que possui essas capacidades não tenha a intenção de usá-las, o adversário não pode ter certeza disso.
"A conexão entre guerra nuclear e inteligência artificial não é nova, na verdade, os dois têm uma história entrelaçada, "disse Edward Geist, co-autor do artigo e pesquisador associado de políticas da RAND Corporation, uma organização sem fins lucrativos, organização de pesquisa apartidária. "Muito do desenvolvimento inicial da IA foi feito em apoio aos esforços militares ou com objetivos militares em mente."
Ele disse que um exemplo desse trabalho foi o Experimento de Planejamento Adaptativo de Sobrevivência na década de 1980, que buscou usar IA para traduzir dados de reconhecimento em planos de alvos nucleares.
Em circunstâncias fortuitas, a inteligência artificial também pode aumentar a estabilidade estratégica, melhorando a precisão na coleta e análise de inteligência, de acordo com o jornal. Embora a IA possa aumentar a vulnerabilidade das forças de segundo ataque, análises aprimoradas para monitorar e interpretar as ações do adversário podem reduzir erros de cálculo ou interpretação que podem levar a um escalonamento não intencional.
Os pesquisadores dizem que, dadas as melhorias futuras, é possível que, eventualmente, os sistemas de IA desenvolvam capacidades que, embora falível, seriam menos propensas a erros do que suas alternativas humanas e, portanto, estariam se estabilizando a longo prazo.
"Alguns especialistas temem que uma maior confiança na inteligência artificial possa levar a novos tipos de erros catastróficos, "disse Andrew Lohn, co-autor no artigo e engenheiro associado da RAND. "Pode haver pressão para usar IA antes que esteja tecnologicamente maduro, ou pode ser suscetível à subversão adversária. Portanto, manter a estabilidade estratégica nas próximas décadas pode ser extremamente difícil e todas as potências nucleares devem participar do cultivo de instituições para ajudar a limitar o risco nuclear. "
Os pesquisadores da RAND basearam sua perspectiva nas informações coletadas durante uma série de workshops com especialistas em questões nucleares, ramos do governo, Pesquisa de IA, Política de IA e segurança nacional.
"A inteligência artificial aumentará o risco de guerra nuclear?" está disponível em http://www.rand.org.
A perspectiva faz parte de um esforço mais amplo para prever desafios de segurança críticos no mundo de 2040, considerando os efeitos da política, tecnológica, social, e tendências demográficas que moldarão esses desafios de segurança nas próximas décadas.
O financiamento para a iniciativa Security 2040 foi fornecido por presentes de apoiadores da RAND e receitas de operações.
A pesquisa foi conduzida dentro do RAND Center for Global Risk and Security, que trabalha em toda a RAND Corporation para desenvolver pesquisas multidisciplinares e análises de políticas que tratam de riscos sistêmicos para a segurança global. O centro se baseia na experiência da RAND para complementar e expandir a pesquisa da RAND em muitos campos, incluindo segurança, economia, saúde, e Tecnologia.