O que a Inteligência Artificial Geral faria com o mundo humano? Crédito:Shutterstock / Nathapol Kongseang
A inteligência artificial pode jogar xadrez, dirigir um carro e diagnosticar problemas médicos. Os exemplos incluem AlphaGo do Google DeepMind, Veículos autônomos de Tesla, e o Watson da IBM.
Esse tipo de inteligência artificial é conhecido como Artificial Narrow Intelligence (ANI) - sistemas não humanos que podem realizar uma tarefa específica. Encontramos esse tipo diariamente, e seu uso está crescendo rapidamente.
Mas embora muitas capacidades impressionantes tenham sido demonstradas, também estamos começando a ver problemas. O pior caso envolveu um carro de teste autônomo que atropelou um pedestre em março. O pedestre morreu e o incidente ainda está sob investigação.
A próxima geração de IA
Com a próxima geração de IA, as apostas serão certamente muito maiores.
Artificial General Intelligence (AGI) terá avançados poderes computacionais e inteligência de nível humano. Os sistemas AGI serão capazes de aprender, resolver problemas, adaptar-se e auto-aperfeiçoar-se. Eles farão até tarefas além daquelas para as quais foram projetados.
Mais importante, sua taxa de melhoria pode ser exponencial à medida que se tornam muito mais avançados do que seus criadores humanos. A introdução do AGI poderia rapidamente trazer a Superinteligência Artificial (ASI).
Embora os sistemas AGI em pleno funcionamento ainda não existam, estima-se que eles estarão conosco em qualquer lugar entre 2029 e o final do século.
O que parece quase certo é que eles chegarão eventualmente. Quando eles fazem, existe uma preocupação grande e natural de que não seremos capazes de controlá-los.
Os riscos associados com AGI
Não há dúvida de que os sistemas AGI podem transformar a humanidade. Algumas das aplicações mais poderosas incluem a cura de doenças, resolver desafios globais complexos, como mudança climática e segurança alimentar, e iniciando um boom de tecnologia mundial.
Mas uma falha na implementação de controles apropriados pode levar a consequências catastróficas.
Apesar do que vemos nos filmes de Hollywood, as ameaças existenciais provavelmente não envolverão robôs assassinos. O problema não será de malevolência, mas sim um de inteligência, escreve o professor do MIT Max Tegmark em seu livro de 2017, Life 3.0:Being Human in the Age of Artificial Intelligence.
É aqui que a ciência dos sistemas homem-máquina - conhecidos como Fatores Humanos e Ergonomia - entrará em cena. Os riscos surgirão do fato de que sistemas superinteligentes identificarão maneiras mais eficientes de fazer as coisas, inventar suas próprias estratégias para alcançar objetivos, e até mesmo desenvolver seus próprios objetivos.
Imagine estes exemplos:
Esses cenários levantam o espectro de sistemas diferentes de AGI lutando entre si, nenhum dos quais toma as preocupações humanas como seu mandato central.
Vários futuros distópicos foram avançados, incluindo aqueles em que os humanos eventualmente se tornam obsoletos, com a subsequente extinção da raça humana.
Outros encaminharam uma interrupção menos extrema, mas ainda significativa, incluindo o uso malicioso de AGI para ataques terroristas e cibernéticos, a eliminação da necessidade de trabalho humano, e vigilância em massa, para citar apenas alguns.
Portanto, há uma necessidade de investigações centradas no ser humano sobre as maneiras mais seguras de projetar e gerenciar AGI para minimizar os riscos e maximizar os benefícios.
Como controlar AGI
Controlar o AGI não é tão simples quanto simplesmente aplicar os mesmos tipos de controles que tendem a manter os humanos sob controle.
Muitos controles do comportamento humano dependem de nossa consciência, nossas emoções, e a aplicação de nossos valores morais. Os AGIs não precisarão de nenhum desses atributos para nos causar danos. As formas atuais de controle não são suficientes.
Discutivelmente, existem três conjuntos de controles que requerem desenvolvimento e teste imediatamente:
Fatores humanos e ergonomia oferece métodos que podem ser usados para identificar, projetar e testar esses controles bem antes da chegada dos sistemas AGI.
Por exemplo, é possível modelar os controles que existem em um sistema particular, para modelar o comportamento provável dos sistemas AGI dentro desta estrutura de controle, e identificar os riscos de segurança.
Isso nos permitirá identificar onde novos controles são necessários, projetá-los, e, em seguida, remodele para ver se os riscos são removidos como resultado.
Além disso, nossos modelos de cognição e tomada de decisão podem ser usados para garantir que os AGIs se comportem de maneira adequada e tenham valores humanísticos.
Aja agora, mais tarde não
Este tipo de pesquisa está em andamento, mas não há o suficiente e não há disciplinas suficientes envolvidas.
Até mesmo o empresário de alta tecnologia Elon Musk alertou sobre a "crise existencial" que a humanidade enfrenta com a IA avançada e falou sobre a necessidade de regulamentar a IA antes que seja tarde demais.
A próxima década ou mais representa um período crítico. Há uma oportunidade de criar sistemas AGI seguros e eficientes que podem trazer benefícios de longo alcance para a sociedade e a humanidade.
Ao mesmo tempo, uma abordagem usual, na qual tentamos recuperar o atraso com os rápidos avanços tecnológicos, pode contribuir para a extinção da raça humana. A bola está do nosso lado, mas não será por muito mais tempo.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.