• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A IA assumirá o controle? A teoria quântica sugere o contrário

    Crédito:William Bradberry / Shutterstock

    Será que a inteligência artificial um dia ultrapassará o pensamento humano? O rápido progresso da IA, juntamente com nosso medo padrão de máquinas, levantou preocupações de que suas habilidades um dia começarão a crescer incontrolavelmente, eventualmente levando-o a dominar o mundo e exterminar a humanidade se decidir que somos um obstáculo para seus objetivos. Esse momento é geralmente conhecido como "singularidade AI".

    Um argumento contra a possibilidade de tal supremo, inteligência imparável e indefinidamente crescente é que ela precisaria, por definição, para ser capaz de prever o futuro com precisão. E a teoria quântica, uma das principais formas da ciência moderna de explicar o universo, diz que prever o futuro pode não ser possível porque o universo é aleatório. Mas e se apenas pensarmos que prever o futuro é impossível porque não somos inteligentes o suficiente para saber o contrário?

    Inteligência é um conceito muito complexo e abstrato sem uma definição consensual. Contudo, há um consenso sobre alguns dos componentes que constituem todo tipo de inteligência conhecida. Um deles é a capacidade de resolver problemas, o que requer a habilidade de planejar antecipando o futuro. Para resolver um problema, é fundamental entender as condições atuais, prever como o ambiente irá evoluir, e antecipar o resultado das ações que serão aplicadas.

    Universo aleatório

    Teorias recentes da física sugerem que o universo é extremamente caótico e aleatório. Veja o exemplo dos elementos químicos instáveis ​​que eventualmente sofrem decomposição radioativa em outra substância. Você pode estimar quanto tempo levará uma certa quantidade desse elemento para decair, mas você não pode dizer com certeza quando um único átomo dele irá. De forma similar, você pode medir a posição ou o momento de uma partícula, mas, por certas razões relacionadas à teoria quântica, você não pode saber os dois ao mesmo tempo com total precisão. (Isso é conhecido como princípio da incerteza de Heisenberg.)

    Supondo que essas teorias estejam corretas, eles sugerem que, além de um certo nível de detalhe, o universo é, em última análise, imprevisível, caótico e instável. Isso significaria que qualquer tipo de inteligência crescente acabaria chegando a um ponto em que não poderia mais melhorar suas previsões do futuro e, portanto, não poderia aumentar ainda mais a inteligência. Em outras palavras, não há risco de uma IA descontrolada, porque as leis físicas do universo apresentam alguns limites rígidos muito restritivos. Por exemplo, dados os limites conhecidos de previsibilidade do clima, um sistema de IA não será capaz de enganar os humanos, explorando previsões meteorológicas de longo prazo extremamente precisas para o planejamento de ações futuras.

    É muito reconfortante acreditar que a natureza do universo é, em algum sentido, impedindo uma escalada de IA. Mas existe uma perspectiva alternativa. E se os humanos percebessem o universo como aleatório e caótico apenas porque nossas capacidades cognitivas e de raciocínio são muito limitadas? Estamos cientes de alguns dos limites da compreensão humana, mas, parafraseando Donald Rumsfeld, não sabemos o que não sabemos.

    Tomando essa perspectiva, pode ser o caso de o universo ser em vez determinístico, e, portanto, totalmente previsível, mas de uma forma extremamente complexa que nós, como humanos, não podemos compreender. Albert Einstein argumentou que a teoria quântica era uma descrição incompleta do universo e que deve haver variáveis ​​ocultas que ainda não entendemos, mas que contêm a chave para determinar eventos futuros.

    Isso mudaria a mesa sobre a possibilidade de uma singularidade de IA. Uma inteligência superavançada poderia estar em posição de revelar essas variáveis ​​ocultas e, assim, compreender a natureza previsível do universo, liberando todo o potencial da máquina. É importante notar que as abordagens de IA já são usadas para fazer descobertas automaticamente na física.

    Em um nível prático, a singularidade não parece tão plausível, dado o quão limitada a IA realmente ainda é. Avanços recentes em IA foram alcançados por meio do que é conhecido como IA estreita, projetado para executar uma tarefa bem definida, como jogar xadrez ou dirigir um carro. Embora a IA estreita possa superar os humanos em algumas tarefas, há pouco a sugerir que a IA mais geral, que pode emular a capacidade dos humanos de responder a muitas tarefas diferentes, será entregue e colocará os humanos em risco em um futuro próximo.

    Mas não podemos descartar isso completamente. Como ainda temos conhecimento limitado da natureza do universo, e do poder da IA, talvez seja melhor jogar pelo seguro. Mesmo sem singularidade, A IA terá um impacto dramático na sociedade humana. Precisamos trabalhar o máximo possível para garantir que a IA seja benéfica para a humanidade, não é uma ameaça para ele.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com