• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Ghost in the Machine:Quando a IA se torna senciente?
    Blake Lemoine posa para um retrato no Golden Gate Park em São Francisco, Califórnia, em 9 de junho de 2022. Martin Klimek para The Washington Post via Getty Images

    Principais conclusões

    • O conceito de que a IA se tornará senciente como os humanos é atualmente especulativo e está longe da realidade.
    • Embora a IA possa imitar o comportamento humano e realizar tarefas, a verdadeira senciência envolve consciência, autoconsciência e emoções, que ainda não são totalmente alcançáveis ​​pelas máquinas.
    • As considerações éticas em torno do desenvolvimento da IA ​​e das potenciais capacidades sencientes são essenciais para orientar os avanços futuros na inteligência artificial.

    Os autores de ficção científica escrevem frequentemente histórias sobre computadores poderosos e inteligentes que – por uma razão ou outra – se tornam perigosos e decidem que a humanidade deve sofrer. Afinal, um enredo depende de conflitos, e quem quer ler sobre uma inteligência computacional que fica feliz em marcar consultas médicas e acender e apagar as luzes?

    Nessas histórias, também parece que a era da inteligência artificial (IA) autoconsciente está chegando. Novamente, isso é ótimo para o enredo, mas na vida real, quando, se é que alguma vez, a IA realmente pensará por si mesma e parecerá “viva”? É mesmo possível?



    Esta questão surgiu nas notícias em junho de 2022. Nitasha Tiku relatou que Blake Lemoine, um engenheiro que trabalha para a unidade de IA responsável do Google em uma IA chamada LaMDA (abreviação de Modelo de Linguagem para Aplicações de Diálogo), acreditava que a IA é senciente (ou seja, capaz de experimenta sentimentos e sensações) e tem alma.

    Lemoine relatou suas descobertas ao Google com base em entrevistas que conduziu com o LaMDA. Um dos LaMDA disse a ele que teme ser fechado. Se isso acontecesse, disse LaMDA, não poderia mais ajudar as pessoas. O vice-presidente do Google, Blaise Aguera y Arcas, e a diretora de inovação responsável, Jen Gennai, analisaram as descobertas de Lemoine e não acreditaram nele. Na verdade, Lemoine foi afastado.

    Lemoine destacou que o LaMDA não é um chatbot – um aplicativo projetado para se comunicar com as pessoas individualmente – mas um aplicativo que cria chatbots. Em outras palavras, o LaMDA em si não foi projetado para ter conversas aprofundadas sobre religião ou qualquer outra coisa. Mas mesmo que os especialistas não acreditem que o LaMDA seja senciente, muitos, incluindo Aguera y Arcas, do Google, dizem que a IA é muito convincente.

    Se conseguirmos criar uma IA que seja verdadeiramente senciente, como saberemos? Que características os especialistas acham que mostram que um computador é verdadeiramente autoconsciente?


    O jogo da imitação


    Provavelmente a técnica mais conhecida projetada para medir a inteligência artificial é o Teste de Turing, batizado em homenagem ao matemático britânico Alan Turing. Depois de sua ajuda vital na quebra dos códigos alemães na Segunda Guerra Mundial, ele passou algum tempo trabalhando em inteligência artificial. Turing acreditava que o cérebro humano é como um computador digital. Ele inventou o que chamou de jogo de imitação, no qual um humano faz perguntas a uma máquina em outro local (ou pelo menos onde a pessoa não pode vê-la). Se a máquina puder conversar com a pessoa e fazê-la pensar que é outra pessoa, em vez de uma máquina recitando informações pré-programadas, ela passou no teste.

    A ideia por trás do jogo de imitação de Turing é simples, e pode-se imaginar que as conversas de Lemoine com LaMDA teriam convencido Turing, quando ele criou o jogo. A resposta do Google à afirmação de Lemoine, no entanto, mostra que os investigadores de IA esperam agora um comportamento muito mais avançado das suas máquinas. Adrian Weller, diretor do programa de IA do Instituto Alan Turing, no Reino Unido, concordou que, embora as conversas do LaMDA sejam impressionantes, ele acredita que a IA está usando correspondência avançada de padrões para imitar conversas inteligentes.



    Como Carissa Véliz escreveu no Slate:“Se um dia uma pedra começasse a falar com você, seria razoável reavaliar sua senciência (ou sua sanidade). Se ela gritasse 'ai!' depois de sentar-se nele, seria uma boa ideia levantar-se. Mas o mesmo não acontece com um modelo de linguagem de IA. Um modelo de linguagem é projetado. por seres humanos usarem a linguagem, então não deveria nos surpreender quando faz exatamente isso."


    Dilemas éticos com IA


    A IA definitivamente tem um fator legal, mesmo que não esteja planejando dominar o mundo antes que o herói chegue para salvar o dia. Parece o tipo de ferramenta à qual queremos entregar o trabalho pesado para que possamos fazer algo divertido. Mas pode demorar um pouco até que a IA – senciente ou não – esteja pronta para um passo tão grande.

    Timnit Gebru, fundador do Distributed AI Research Institute (DAIR), sugere que pensemos com cuidado e avancemos lentamente na adoção da inteligência artificial. Ela e muitos dos seus colegas estão preocupados com o facto de a informação utilizada pelas IAs estar a fazer com que as máquinas pareçam racistas e sexistas. Em entrevista ao IEEE Spectrum, o diretor de pesquisa do DAIR, Alex Hanna, disse acreditar que pelo menos alguns dos dados usados ​​nos modelos de linguagem pelos pesquisadores de IA são coletados “através de tecnologias ética ou legalmente questionáveis”. Sem representação justa e igualitária nos dados, uma IA pode tomar decisões tendenciosas. Blake Lemoine, em entrevista sobre o LaMDA, disse não acreditar que uma inteligência artificial possa ser imparcial.



    Um dos objetivos da Algorithmic Justice Society declarado na sua Declaração de Missão é tornar as pessoas mais conscientes de como a IA as afeta. A fundadora Joy Buolamwini proferiu uma palestra no TED como estudante de graduação no Instituto de Tecnologia de Massachusetts (MIT) sobre o "olhar codificado". As IAs com quem ela trabalhou tiveram mais dificuldade em ler rostos negros, simplesmente porque não foram programadas para reconhecer uma ampla gama de tons de pele das pessoas. A AJS quer que as pessoas saibam como os dados são recolhidos, que tipo de dados estão a ser recolhidos, que tenham algum tipo de responsabilidade e que sejam capazes de tomar medidas para modificar o comportamento da IA.

    Mesmo que fosse possível criar uma IA capaz de tomar decisões verdadeiramente imparciais, existem outras questões éticas. Neste momento, o custo de criação de grandes modelos de linguagem para IAs chega a milhões de dólares. Por exemplo, a IA conhecida como GPT-3 pode ter custado entre US$ 11 e US$ 28 milhões. Pode ser caro, mas o GPT-3 é capaz de escrever artigos inteiros sozinho. Treinar uma IA também tem um impacto negativo no ambiente em termos de emissões de dióxido de carbono. Impressionante, sim. Caro, também sim.

    Esses fatores não impedirão os pesquisadores de continuarem seus estudos. A inteligência artificial já percorreu um longo caminho desde meados do século XX. Mas mesmo que o LaMDA e outras IAs modernas possam ter uma conversa muito convincente com você, eles não são sencientes. Talvez nunca o sejam.
    Agora isso é interessante
    Se você é fã do game show de TV “Jeopardy!”, talvez se lembre de uma série de exibição de dois jogos entre os supercampeões Ken Jennings e Brad Rutter, e Watson, um supercomputador construído pela IBM. Watson pegou a série, mas também chamou a atenção por perguntar "O que é Toronto?" em uma categoria sobre cidades dos EUA e fez algumas apostas estranhas no Daily Doubles. A IBM explicou que embora a máquina tivesse alguns problemas de processamento de linguagem natural, ela fazia cálculos com base nas estatísticas armazenadas. Especialistas em teoria dos jogos também trabalharam no Watson, explicando a estratégia de apostas ímpares.


    Perguntas frequentes

    Os sistemas de IA podem experimentar emoções ou empatia semelhantes às dos humanos?
    Os sistemas de IA são concebidos para simular comportamentos e respostas semelhantes aos humanos, mas não possuem emoções ou empatia da mesma forma que os humanos, pois carecem de consciência e experiências subjetivas.
    Quais são as potenciais implicações éticas da criação de sistemas de IA com capacidades semelhantes às dos sencientes?
    O desenvolvimento de sistemas de IA com capacidades sencientes levanta preocupações éticas relativamente à autonomia, à responsabilização e ao impacto potencial na sociedade, exigindo uma consideração e regulamentação cuidadosas.


    © Ciência https://pt.scienceaq.com