Os governos podem encorajar a integração da inteligência humana e artificial. Crédito:sdecoret / Shutterstock
A invenção de uma superinteligência artificial tem sido um tema central na ficção científica, pelo menos desde o século XIX. Do conto de E.M. Forster, The Machine Stops (1909), à recente série de televisão da HBO Westworld, os escritores tendem a retratar essa possibilidade como um desastre absoluto. Mas esse problema não é mais ficção. Cientistas e engenheiros contemporâneos proeminentes agora também estão preocupados que a super-IA possa um dia superar a inteligência humana (um evento conhecido como "singularidade") e se tornar o "pior erro" da humanidade.
As tendências atuais sugerem que estamos prontos para entrar em uma corrida armamentista internacional por essa tecnologia. Qualquer empresa de alta tecnologia ou laboratório do governo que conseguir inventar a primeira super-IA obterá uma tecnologia potencialmente dominante no mundo. É um prêmio que o vencedor leva tudo. Então, para aqueles que querem impedir tal evento, a questão é como desencorajar esse tipo de corrida armamentista, ou, pelo menos, incentive as equipes concorrentes a não economizarem na segurança da IA.
Uma super-IA levanta dois desafios fundamentais para seus inventores, como o filósofo Nick Bostrom e outros apontaram. Um é um problema de controle, que é como garantir que a super-IA tenha os mesmos objetivos que a humanidade. Sem isso, a inteligência poderia deliberadamente, acidentalmente ou por negligência, destruir a humanidade - um "desastre de IA".
O segundo é um problema político, que é como garantir que os benefícios de uma superinteligência não cheguem apenas a uma pequena elite, causando enormes desigualdades sociais e de riqueza. Se uma corrida armamentista super-AI ocorrer, pode levar grupos concorrentes a ignorar esses problemas para desenvolver sua tecnologia mais rapidamente. Isso pode levar a uma super-IA de baixa qualidade ou hostil.
Uma solução sugerida é usar políticas públicas para dificultar a entrada na corrida, a fim de reduzir o número de grupos competidores e melhorar as capacidades daqueles que entram. Quanto menos competem, menos pressão haverá para cortar cantos e vencer. Mas como os governos podem diminuir a competição dessa forma?
Meu colega Nicola Dimitri e eu publicamos recentemente um artigo que tentava responder a essa pergunta. Primeiro mostramos que em uma corrida típica o vencedor leva tudo, como aquele para construir o primeiro super-AI, apenas as equipes mais competitivas irão participar. Isso ocorre porque a probabilidade de realmente inventar o super-AI é muito pequena, e entrar na corrida é muito caro devido ao grande investimento necessário em pesquisa e desenvolvimento.
De fato, esta parece ser a situação atual com o desenvolvimento de IA "estreita" mais simples. Os pedidos de patentes para este tipo de IA são dominados por algumas empresas, e a grande maioria das pesquisas de IA é feita em apenas três regiões (os EUA, China e Europa). Também parece haver muito poucos, caso existam, grupos atualmente investindo na construção de uma super-IA.
Isso sugere que reduzir o número de grupos concorrentes não é a prioridade mais importante no momento. Mas mesmo com um número menor de competidores na corrida, a intensidade da competição ainda pode levar aos problemas mencionados acima. Portanto, para reduzir a intensidade da competição entre os grupos que se esforçam para construir uma super-IA e aumentar suas capacidades, os governos poderiam recorrer a compras públicas e impostos.
Aquisição pública refere-se a todas as coisas que os governos pagam às empresas privadas para fornecer, desde software para uso em agências governamentais até contratos para executar serviços. Os governos poderiam impor restrições a qualquer fornecedor de super-IA que exigisse que eles abordassem os problemas potenciais, e apoiar tecnologias complementares para aprimorar a inteligência humana e integrá-la à IA.
Mas os governos também podem se oferecer para comprar uma versão menos que a melhor de super-IA, efetivamente criando um "segundo prêmio" na corrida armamentista e impedindo que seja uma competição em que o vencedor leva tudo. Com um prêmio intermediário, que poderia ser para inventar algo próximo (mas não exatamente) a um super-AI, grupos concorrentes terão um incentivo para investir e cooperar mais, reduzindo a intensidade da competição. Um segundo prêmio também reduziria o risco de fracasso e justificaria mais investimento, ajudando a aumentar as capacidades das equipes concorrentes.
Quanto aos impostos, os governos poderiam definir a taxa de imposto sobre o grupo que inventa a super-IA de acordo com o quão amigável ou hostil a IA é. Uma taxa de imposto alta o suficiente significaria essencialmente a nacionalização do super-AI. Isso desencorajaria fortemente as empresas privadas de cortar custos por medo de perder seu produto para o Estado.
Bem público, não monopólio privado
Essa ideia pode exigir uma melhor coordenação global de tributação e regulamentação de super-IA. Mas não seria necessário que todos os governos estivessem envolvidos. Em teoria, um único país ou região (como a UE) poderia arcar com os custos e esforços envolvidos na resolução dos problemas e da ética da super-IA. Mas todos os países se beneficiariam e a super-IA se tornaria um bem público, em vez de um monopólio privado imparável.
É claro que tudo isso depende da super-IA realmente ser uma ameaça para a humanidade. E alguns cientistas acham que não será. Podemos naturalmente afastar os riscos da super-IA ao longo do tempo. Alguns acham que os humanos podem até mesmo se fundir com a IA.
Seja qual for o caso, nosso planeta e seus habitantes se beneficiarão enormemente ao garantir que obtenhamos o melhor da IA, uma tecnologia que ainda está em sua infância. Por esta, precisamos compreender melhor o papel que o governo pode desempenhar.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.