• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Devemos nos preocupar com a inteligência do Google?

    Crédito:Unsplash/CC0 Public Domain

    De assistentes virtuais como Siri da Apple e Alexa da Amazon, a aspiradores robóticos e carros autônomos, a gerentes de portfólio de investimentos automatizados e bots de marketing, a inteligência artificial se tornou uma grande parte de nossas vidas cotidianas. Ainda assim, pensando em IA, muitos de nós imaginamos robôs semelhantes a humanos que, de acordo com inúmeras histórias de ficção científica, se tornarão independentes e rebeldes um dia.
    Ninguém sabe, no entanto, quando os humanos criarão uma IA inteligente ou senciente, disse John Basl, professor associado de filosofia da Faculdade de Ciências Sociais e Humanidades do Nordeste, cuja pesquisa se concentra na ética de tecnologias emergentes como IA e biologia sintética.

    “Quando você ouve o Google falar, eles falam como se isso estivesse ao virar da esquina ou definitivamente dentro de nossas vidas”, disse Basl. "E eles são muito arrogantes sobre isso."

    Talvez seja por isso que uma história recente do Washington Post tenha causado tanto impacto. Na história, o engenheiro do Google, Blake Lemoine, diz que o gerador de chatbot artificialmente inteligente da empresa, LaMDA, com quem ele teve inúmeras conversas profundas, pode ser senciente. Isso o lembra de uma criança de 7 ou 8 anos, disse Blake ao Washington Post.

    No entanto, Basl acredita que as evidências mencionadas no artigo do Washington Post não são suficientes para concluir que o LaMDA é senciente.

    "Reações como 'criamos IA senciente', eu acho, são extremamente exageradas", disse Basl.

    A evidência parece estar fundamentada nas habilidades linguísticas do LaMDA e nas coisas sobre as quais ele fala, disse Basl. No entanto, o LaMDA, um modelo de linguagem, foi projetado especificamente para falar, e a função de otimização usada para treiná-lo para processar a linguagem e conversar incentiva seu algoritmo a produzir essa evidência linguística.

    “Não é como se estivéssemos em um planeta alienígena e nunca demos incentivos para começar a nos comunicar [começamos a falar pensativamente]”, disse Basl.

    O fato de que esse modelo de linguagem pode enganar um humano a pensar que é senciente fala de sua complexidade, mas precisaria ter outras capacidades além do que é otimizado para mostrar senciência, disse Basl.

    Existem diferentes definições de senciência. Sentient é definido como sendo capaz de perceber ou sentir coisas e é frequentemente comparado a sapiente.

    Basl acredita que a IA senciente seria minimamente consciente. Pode estar ciente da experiência que está tendo, ter atitudes positivas ou negativas, como sentir dor ou querer não sentir dor, e ter desejos.

    "Vemos esse tipo de variedade de capacidades no mundo animal", disse ele.

    Por exemplo, Basl disse que seu cachorro não prefere que o mundo seja de um jeito em vez de outro em nenhum sentido profundo, mas ela claramente prefere seus biscoitos a ração.

    "Isso parece rastrear alguma vida mental interior", disse Basl. "[Mas] ela não está sentindo terror sobre as mudanças climáticas."

    Não está claro na história do Washington Post, por que Lemoine compara LaMDA a uma criança. Ele pode querer dizer que o modelo de linguagem é tão inteligente quanto uma criança pequena ou que tem a capacidade de sofrer ou desejar como uma criança pequena, disse Basl.

    "Essas podem ser coisas diversas. Poderíamos criar uma IA pensante que não tenha nenhum sentimento, e podemos criar uma IA de sentimento que não é realmente boa em pensar", disse Basl.

    A maioria dos pesquisadores da comunidade de IA, que consiste em especialistas em aprendizado de máquina, especialistas em inteligência artificial, filósofos, especialistas em ética da tecnologia e cientistas cognitivos, já está pensando nessas questões do futuro distante e se preocupa com a parte do pensamento, de acordo com Basl.

    “Se criarmos uma IA que seja super inteligente, pode acabar matando a todos nós”, disse ele.

    No entanto, a preocupação de Lemoine não é sobre isso, mas sim sobre a obrigação de tratar as capacidades de IA em rápida mudança de forma diferente.

    "Sou, em sentido amplo, simpático a esse tipo de preocupação. Não estamos sendo muito cuidadosos sobre isso [ser] possível", disse Basl. “Não pensamos o suficiente sobre as coisas morais em relação à IA, como, o que devemos a uma IA senciente?”

    Ele acha que é muito provável que os humanos maltratem uma IA senciente porque provavelmente não reconhecerão que o fizeram, acreditando que é artificial e não se importa.

    "Nós simplesmente não estamos muito sintonizados com essas coisas", disse Basl.

    Não existe um bom modelo para saber quando uma IA alcançou a senciência. E se o LaMDA do Google não tiver a capacidade de expressar sua sensibilidade de forma convincente porque só pode falar por meio de uma janela de bate-papo em vez de outra coisa?

    "Não é como se pudéssemos fazer exames cerebrais para ver se é semelhante a nós", disse ele.

    Outra linha de pensamento é que a IA senciente pode ser impossível em geral por causa das limitações físicas do universo ou da compreensão limitada da consciência.

    Atualmente, nenhuma das empresas que trabalham com IA, incluindo grandes players como Google, Meta, Microsoft, Apple e agências governamentais, tem o objetivo explícito de criar IA consciente, disse Basl. Algumas organizações estão interessadas em desenvolver AGI, ou inteligência geral artificial, uma forma teórica de IA onde uma máquina, inteligente como um humano, teria a capacidade de resolver uma ampla gama de problemas, aprender e planejar o futuro, de acordo com a IBM .

    "Acho que a verdadeira lição disso é que não temos a infraestrutura de que precisamos, mesmo que essa pessoa esteja errada", disse Basl, referindo-se a Lemoine.

    Uma infraestrutura em torno de questões de IA pode ser construída com base na transparência, no compartilhamento de informações com agências governamentais e/ou públicas e na regulamentação da pesquisa. Basl defende um comitê interdisciplinar que ajudaria a construir essa infraestrutura e o segundo que supervisionaria os tecnólogos que trabalham em IA e avaliariam propostas e resultados de pesquisa.

    "O problema da evidência é realmente difícil", disse Basl. "Não temos uma boa teoria da consciência e não temos um bom acesso às evidências da consciência. E também não temos a infraestrutura. Essas são as principais coisas."
    © Ciência https://pt.scienceaq.com