• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Astronomia
    A IA pode ser a culpada pelo nosso fracasso em fazer contato com civilizações alienígenas

    Há um número impressionante de planetas por aí. Crédito:Telescópio NASA/James Webb


    A inteligência artificial (IA) progrediu a um ritmo surpreendente nos últimos anos. Alguns cientistas estão agora a olhar para o desenvolvimento da superinteligência artificial (ASI) – uma forma de IA que não só ultrapassaria a inteligência humana, mas também não estaria limitada pelas velocidades de aprendizagem dos humanos.



    Mas e se esse marco não for apenas uma conquista notável? E se também representar um formidável estrangulamento no desenvolvimento de todas as civilizações, um obstáculo tão desafiador que impede a sua sobrevivência a longo prazo?

    Essa ideia está no cerne de um artigo de pesquisa que publiquei recentemente na Acta Astronautica . Poderia a IA ser o “grande filtro” do universo – um limiar tão difícil de ultrapassar que impede a maior parte da vida de evoluir para civilizações espaciais?

    Este é um conceito que pode explicar por que a busca por inteligência extraterrestre (SETI) ainda não detectou assinaturas de civilizações técnicas avançadas em outras partes da galáxia.

    A hipótese do grande filtro é, em última análise, uma solução proposta para o Paradoxo de Fermi. Isto questiona por que razão, num universo vasto e antigo o suficiente para albergar milhares de milhões de planetas potencialmente habitáveis, não detectámos quaisquer sinais de civilizações alienígenas. A hipótese sugere que existem obstáculos intransponíveis na linha do tempo evolutiva das civilizações que as impedem de se transformarem em entidades espaciais.

    Acredito que o surgimento da ASI possa ser um desses filtros. O rápido avanço da IA, potencialmente levando à ASI, pode cruzar-se com uma fase crítica no desenvolvimento de uma civilização – a transição de uma espécie de planeta único para uma espécie multiplanetária.

    É aqui que muitas civilizações poderão falhar, com a IA a fazer um progresso muito mais rápido do que a nossa capacidade de a controlar ou de explorar e povoar de forma sustentável o nosso sistema solar.

    O desafio da IA, e especificamente da ASI, reside na sua natureza autónoma, autoamplificadora e melhoradora. Possui o potencial para melhorar as suas próprias capacidades a uma velocidade que ultrapassa os nossos próprios cronogramas evolutivos sem IA.

    O potencial para algo correr mal é enorme, levando à queda das civilizações biológicas e da IA ​​antes que estas tenham a oportunidade de se tornarem multiplanetárias. Por exemplo, se as nações confiarem cada vez mais e cederem poder a sistemas autónomos de IA que competem entre si, as capacidades militares poderão ser utilizadas para matar e destruir numa escala sem precedentes. Isto poderia potencialmente levar à destruição de toda a nossa civilização, incluindo os próprios sistemas de IA.

    Neste cenário, estimo que a longevidade típica de uma civilização tecnológica possa ser inferior a 100 anos. Esse é aproximadamente o tempo entre a capacidade de receber e transmitir sinais entre as estrelas (1960) e o surgimento estimado do ASI (2040) na Terra. Isto é alarmantemente curto quando comparado com a escala de tempo cósmica de milhares de milhões de anos.

    Esta estimativa, quando associada a versões optimistas da equação de Drake – que tenta estimar o número de civilizações extraterrestres activas e comunicativas na Via Láctea – sugere que, num dado momento, há apenas um punhado de civilizações inteligentes por aí. Além disso, tal como nós, as suas atividades tecnológicas relativamente modestas podem torná-los bastante difíceis de detetar.

    Chamada de despertar


    Esta pesquisa não é simplesmente um conto de advertência sobre uma possível destruição. Serve como um alerta para a humanidade estabelecer quadros regulamentares robustos para orientar o desenvolvimento da IA, incluindo sistemas militares.

    Não se trata apenas de prevenir o uso malévolo da IA ​​na Terra; trata-se também de garantir que a evolução da IA ​​esteja alinhada com a sobrevivência a longo prazo da nossa espécie. Sugere que precisamos de investir mais recursos para nos tornarmos numa sociedade multiplanetária o mais rapidamente possível – um objectivo que permaneceu adormecido desde os dias inebriantes do projecto Apollo, mas que recentemente foi reavivado por avanços feitos por empresas privadas.

    Como observou o historiador Yuval Noah Harari, nada na história nos preparou para o impacto da introdução de entidades inconscientes e superinteligentes em nosso planeta. Recentemente, as implicações da tomada de decisões autónomas em matéria de IA levaram a apelos de líderes proeminentes neste domínio para uma moratória sobre o desenvolvimento da IA, até que uma forma responsável de controlo e regulação possa ser introduzida.

    Mas mesmo que todos os países concordassem em cumprir regras e regulamentos rigorosos, será difícil controlar as organizações desonestas.

    A integração da IA ​​autónoma em sistemas de defesa militar deve ser uma área de particular preocupação. Já existem evidências de que os seres humanos irão voluntariamente ceder um poder significativo a sistemas cada vez mais capazes, porque podem realizar tarefas úteis com muito mais rapidez e eficácia, sem intervenção humana. Os governos estão, portanto, relutantes em regulamentar esta área, dadas as vantagens estratégicas que a IA oferece, como foi demonstrado recentemente e de forma devastadora em Gaza.

    Isto significa que já estamos perigosamente perto de um precipício onde as armas autónomas operam para além dos limites éticos e contornam o direito internacional. Num mundo assim, entregar o poder aos sistemas de IA, a fim de obter uma vantagem tática, poderia inadvertidamente desencadear uma cadeia de eventos altamente destrutivos e de rápida escalada. Num piscar de olhos, a inteligência colectiva do nosso planeta poderá ser destruída.

    A humanidade está em um ponto crucial de sua trajetória tecnológica. As nossas acções agora poderão determinar se nos tornaremos uma civilização interestelar duradoura ou se sucumbiremos aos desafios colocados pelas nossas próprias criações.

    Usar o SETI como uma lente através da qual podemos examinar o nosso desenvolvimento futuro acrescenta uma nova dimensão à discussão sobre o futuro da IA. Cabe a todos nós garantir que, quando alcançarmos as estrelas, o façamos não como um alerta para outras civilizações, mas como um farol de esperança – uma espécie que aprendeu a prosperar ao lado da IA.

    Mais informações: Michael A. Garrett, A inteligência artificial é o grande filtro que torna raras as civilizações técnicas avançadas no universo?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052
    Informações do diário: Acta Astronáutica

    Fornecido por The Conversation


    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com