Crédito:Foto / Shutterstock da Phonlamai
"Eu sinto Muito, Não entendi muito bem. "Qualquer pessoa que já tentou ter uma conversa mais profunda com um assistente virtual como o Siri sabe como isso pode ser frustrante. Apesar do fato de que sistemas de IA como esse estão cada vez mais invadindo nossas vidas, com novas histórias de sucesso quase diariamente. Não só os IAs agora ajudam os radiologistas a detectar tumores, eles podem agir como repelentes de gatos e até mesmo detectar sinais de tecnologia alienígena em potencial do espaço.
Mas quando se trata de habilidades humanas fundamentais, como ter um bom bate-papo, AI fica aquém. Simplesmente não pode fornecer o humor, cordialidade e a capacidade de construir um relacionamento coerente e pessoal que é crucial nas conversas humanas. Mas por que isso acontece e sempre chegará lá?
Na verdade, os chatbots percorreram um longo caminho desde o seu início, com Eliza do MIT nos anos 1960. Eliza se baseava em um conjunto de regras cuidadosamente elaboradas que dariam a impressão de ser uma ouvinte ativa e simular uma sessão com um psicoterapeuta.
Sistemas como o Eliza eram bons em dar uma primeira impressão sofisticada, mas eram facilmente descobertos depois de algumas conversas. Esses sistemas foram construídos sobre os esforços para reunir o máximo de conhecimento do mundo possível, e então formalize-o em conceitos e como eles se relacionam entre si. Conceitos e relações foram posteriormente construídos em gramática e léxicos que ajudariam a analisar e gerar linguagem natural a partir de representações lógicas intermediárias. Por exemplo, o conhecimento do mundo pode conter fatos como "chocolate é comestível" e "pedra não é comestível".
Aprendendo com os dados
Os sistemas de IA de conversação de hoje são diferentes, pois visam conversas de domínio aberto - não há limite para o número de tópicos, perguntas ou instruções que um humano pode fazer. Isso é alcançado principalmente evitando-se completamente qualquer tipo de representação intermediária ou engenharia de conhecimento explícita. Em outras palavras, o sucesso da IA de conversação atual é baseado na premissa de que ela não conhece nem entende nada do mundo.
O modelo básico de aprendizagem profunda subjacente à maioria dos trabalhos atuais em processamento de linguagem natural é chamado de rede neural recorrente, em que um modelo prevê uma sequência de palavras de saída com base em uma sequência de palavras de entrada por meio de uma função de probabilidade que pode ser deduzida dos dados. Dada a entrada do usuário "Como vai você?" o modelo pode determinar que uma resposta estatisticamente frequente é "Estou bem".
O poder desses modelos reside parcialmente em sua simplicidade - evitando representações intermediárias, mais dados normalmente levarão a melhores modelos e melhores resultados. Aprender para uma IA é muito semelhante a como aprendemos:digerir um conjunto de dados de treinamento muito grande e compará-lo com dados conhecidos, mas não vistos (conjunto de teste). Com base no desempenho da IA em relação ao conjunto de teste, o modelo preditivo do AI é então ajustado para obter melhores resultados antes que o teste seja repetido.
Mas como você determina o quão bom é? Você pode olhar para a gramática dos enunciados, como eles parecem "humanos", ou a coerência de uma contribuição em uma seqüência de turnos de conversação. A qualidade dos resultados também pode ser determinada como uma avaliação subjetiva de quão perto eles atendem às expectativas. O DeepDrumpf do MIT é um bom exemplo - um sistema de IA treinado usando dados da conta do Twitter de Donald Trump e que estranhamente soa como ele, comentando sobre vários tópicos, como saúde, mulheres, ou imigração.
Contudo, os problemas começam quando os modelos recebem entradas "erradas". O Tay da Microsoft foi uma tentativa de construir uma IA de conversação que gradualmente "melhoraria" e se tornaria mais humana por meio de conversas no Twitter. Tay se transformou de um filantropo em um agressor político com uma visão de mundo incoerente e extremista 24 horas após a implantação. Logo foi colocado offline.
À medida que as máquinas aprendem conosco, eles também assumem nossas falhas - nossas ideologias, humores e visões políticas. Mas ao contrário de nós, eles não aprendem a controlá-los ou avaliá-los - eles apenas mapeiam uma sequência de entrada para uma sequência de saída, sem qualquer filtro ou bússola moral.
Este tem, Contudo, também foi retratado como uma vantagem. Alguns argumentam que os sucessos recentes do debatedor do Projeto da IBM, uma IA que pode construir "argumentos baseados em evidências convincentes" sobre qualquer tópico, é devido à sua falta de preconceito e influência emocional. Para fazer isso, ele procura dados em uma grande coleção de documentos e extrai informações para expressar a visão oposta à pessoa com quem está debatendo.
Próximos passos
Mas mesmo que mais dados possam ajudar a IA a aprender a dizer coisas mais relevantes, algum dia soará realmente humano? As emoções são essenciais na conversa humana. Reconhecer a tristeza ou felicidade na voz de outra pessoa ou mesmo na mensagem de texto é extremamente importante ao adaptar nossa própria resposta ou fazer um julgamento sobre uma situação. Normalmente temos que ler nas entrelinhas.
IAs de conversação são essencialmente psicopatas, sem sentimentos ou empatia. Isso se torna dolorosamente claro quando gritamos o número do nosso cliente ao telefone pela sétima vez, na esperança de que o sistema reconheça nossa agonia e nos encaminhe para um representante de atendimento ao cliente humano.
De forma similar, IAs de conversação geralmente não entendem humor ou sarcasmo, que a maioria de nós considera crucial para um bom bate-papo. Embora programas individuais projetados para ensinar IA para detectar comentários sarcásticos entre uma série de frases tenham tido algum sucesso, ninguém conseguiu integrar essa habilidade em uma IA de conversação real ainda.
Claramente, o próximo passo para IAs de conversação é integrar esta e outras funções "humanas". Infelizmente, ainda não temos as técnicas disponíveis para fazer isso com sucesso. E mesmo se fizéssemos, o problema é que quanto mais tentamos construir em um sistema, mais potência de processamento será necessária. Portanto, pode demorar algum tempo até que tenhamos os tipos de computadores disponíveis que tornarão isso possível.
Os sistemas de IA claramente ainda carecem de uma compreensão mais profunda do significado das palavras, as visões políticas que representam, as emoções transmitidas e o impacto potencial das palavras. Isso os deixa muito tempo longe de parecerem humanos. E pode demorar ainda mais até que se tornem companheiros sociais que realmente nos compreendam e possam ter uma conversa no sentido humano da palavra.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.