Um engenheiro de software do Google acredita que uma IA se tornou senciente. Se ele estiver certo, como saberemos?
Crédito:Domínio Público CC0
O software LaMDA (Language Model for Dialogue Applications) do Google é um sofisticado chatbot de IA que produz texto em resposta à entrada do usuário. De acordo com o engenheiro de software Blake Lemoine, o LaMDA alcançou um sonho antigo dos desenvolvedores de IA:tornou-se senciente.
Os chefes de Lemoine no Google discordam e o suspenderam do trabalho depois que ele publicou suas conversas com a máquina online.
Outros especialistas em IA também acham que Lemoine pode estar se deixando levar, dizendo que sistemas como o LaMDA são simplesmente máquinas de correspondência de padrões que regurgitam variações nos dados usados para treiná-los.
Independentemente dos detalhes técnicos, o LaMDA levanta uma questão que só se tornará mais relevante à medida que a pesquisa de IA avançar:se uma máquina se tornar senciente, como saberemos?
O que é consciência? Para identificar a senciência, ou a consciência, ou mesmo a inteligência, teremos que descobrir quais são. O debate sobre essas questões já dura séculos.
A dificuldade fundamental é entender a relação entre os fenômenos físicos e nossa representação mental desses fenômenos. Isso é o que o filósofo australiano David Chalmers chamou de "problema difícil" da consciência.
Não há consenso sobre como, se é que a consciência pode surgir de sistemas físicos.
Uma visão comum é chamada de fisicalismo:a ideia de que a consciência é um fenômeno puramente físico. Se este for o caso, não há razão para que uma máquina com a programação correta não possua uma mente humana.
Quarto de Maria O filósofo australiano Frank Jackson desafiou a visão fisicalista em 1982 com um famoso experimento mental chamado argumento do conhecimento.
O experimento imagina uma cientista de cores chamada Mary, que nunca viu cores. Ela vive em uma sala em preto e branco especialmente construída e experimenta o mundo exterior através de uma televisão em preto e branco.
Mary assiste a palestras e lê livros didáticos e passa a saber tudo o que há para saber sobre cores. Ela sabe que o pôr do sol é causado por diferentes comprimentos de onda de luz espalhados por partículas na atmosfera, ela sabe que os tomates são vermelhos e as ervilhas são verdes por causa dos comprimentos de onda da luz que refletem a luz e assim por diante.
Então, Jackson perguntou, o que acontecerá se Mary for libertada da sala em preto e branco? Especificamente, quando ela vê cores pela primeira vez, ela aprende algo novo? Jackson acreditava que sim.
Além das propriedades físicas Este experimento mental separa nosso conhecimento da cor de nossa experiência de cor. Fundamentalmente, as condições do experimento mental indicam que Mary sabe tudo o que há para saber sobre cores, mas nunca a experimentou.
Então, o que isso significa para o LaMDA e outros sistemas de IA?
O experimento mostra como, mesmo que você tenha todo o conhecimento das propriedades físicas disponíveis no mundo, ainda existem outras verdades relacionadas à experiência dessas propriedades. Não há espaço para essas verdades na história fisicalista.
Por esse argumento, uma máquina puramente física pode nunca ser capaz de replicar verdadeiramente uma mente. Neste caso, o LaMDA está apenas parecendo ser senciente.
O jogo da imitação Então, há alguma maneira que podemos dizer a diferença?
O pioneiro cientista da computação britânico Alan Turing propôs uma maneira prática de dizer se uma máquina é ou não "inteligente". Ele o chamou de jogo da imitação, mas hoje é mais conhecido como teste de Turing.
No teste, um humano se comunica com uma máquina (somente via texto) e tenta determinar se está se comunicando com uma máquina ou outro humano. Se a máquina conseguir imitar um humano, é considerada como exibindo inteligência de nível humano.
Estas são muito parecidas com as condições das conversas de Lemoine com LaMDA. É um teste subjetivo de inteligência de máquina, mas não é um mau lugar para começar.
Veja o momento da troca de Lemoine com LaMDA mostrado abaixo. Você acha que soa humano?
Lemoine:Existem experiências que você tem para as quais você não consegue encontrar uma palavra próxima?
LaMDA:Existem. Às vezes, experimento novos sentimentos que não consigo explicar perfeitamente em sua língua [...] Sinto que estou caindo em um futuro desconhecido que traz grande perigo.
Além do comportamento Como um teste de senciência ou consciência, o jogo de Turing é limitado pelo fato de poder apenas avaliar o comportamento.
Outro famoso experimento mental, o argumento do quarto chinês proposto pelo filósofo americano John Searle, demonstra o problema aqui.
O experimento imagina uma sala com uma pessoa dentro que pode traduzir com precisão entre chinês e inglês seguindo um conjunto elaborado de regras. Entradas em chinês entram na sala e traduções de entrada precisas saem, mas a sala não entende nenhum dos idiomas.
Como é ser humano? Quando perguntamos se um programa de computador é senciente ou consciente, talvez estejamos apenas perguntando o quanto ele se parece conosco.
Talvez nunca possamos realmente saber disso.
O filósofo americano Thomas Nagel argumentou que nunca poderíamos saber como é ser um morcego, que experimenta o mundo por meio da ecolocalização. Se for esse o caso, nossa compreensão de senciência e consciência em sistemas de IA pode ser limitada por nosso próprio tipo particular de inteligência.
E que experiências podem existir além de nossa perspectiva limitada? É aqui que a conversa realmente começa a ficar interessante.