Crédito CC0:domínio público
Para que as máquinas sejam realmente inteligentes, alguns pesquisadores de inteligência artificial (IA) acreditam que os computadores devem reconhecer, compreender e responder às emoções humanas. Resumidamente, as máquinas devem ser equipadas com inteligência emocional:a capacidade de expressar e identificar as próprias emoções, e interagir empaticamente com os outros.
Essa qualidade inequivocamente humana "é a chave para desbloquear o surgimento de máquinas que não são apenas mais gerais, robusto e eficiente, mas que também estão alinhados com os valores da humanidade, "Os pesquisadores de IA da Microsoft, Daniel McDuff e Ashish Kapoor, escreveram em um artigo recente.
O domínio da inteligência emocional permitirá que os computadores apoiem melhor os humanos em sua saúde física e mental, além de aprender novas habilidades, escreveu McDuff e Kapoor.
O Seattle Times conversou com o vice-presidente corporativo de IA e pesquisa da Microsoft, Lili Cheng, sobre os desenvolvimentos na inteligência emocional da máquina, e o que isso significa para os humanos. (A conversa foi editada em termos de duração e clareza.)
P:Qual é a tecnologia por trás da inteligência emocional da máquina?
R:A maneira como o cérebro humano funciona é que algumas coisas você aprendeu ao longo do tempo, mas há outras coisas que você faz de forma muito intuitiva. Antes de você entrar em um acidente, seu corpo pode ficar tenso e você pode não pensar (como você faria) responder a certas coisas - (em várias outras situações) isso se aplica a muitas emoções diferentes, como felicidade e alegria.
(O artigo de McDuff e Kapoor) analisou como os humanos respondem com medo. Podemos ajudar os sistemas automatizados a aprender com algumas das mesmas técnicas?
Eles fizeram uma simulação de alguém dirigindo, e mediram o pulso da pessoa para ver como ela reagiu se você estiver tentando evitar bater ou bater em algo.
E então eles construíram esse modelo e o aplicaram a um carro automatizado que está dirigindo pela mesma simulação. Eles descobriram que, ao aplicar a reação de luta ou fuga que uma pessoa (experimenta), construir um algoritmo em torno disso, e aplicar isso a um carro automatizado ajudou a responder muito rapidamente em algumas situações.
Eles não estão apenas usando o medo. Eles estão combinando isso com outra tecnologia que é mais racional, assim como uma pessoa faria, porque você nem sempre está respondendo apenas ao medo.
Eles podem simular algumas coisas em um ambiente virtual e ainda fazer esses testes sem realmente ter que instrumentar carros reais. Seria muito difícil fazer esse tipo de teste no mundo real.
P:Quais são algumas outras aplicações práticas para a inteligência emocional da máquina?
R:O sonho real é que (inteligência emocional) pode ajudá-lo melhor em situações que são mais significativas para você - (por exemplo, ) você está em uma reunião estressante, ou você quer conhecer alguém novo. E ajudar as pessoas a gerenciar melhor suas emoções e se sair melhor nesse tipo de situação seria realmente ótimo ... (não apenas) "abra meu e-mail. Ajude-me a realizar essa tarefa. Ajude-me a organizar minha reunião mais rapidamente."
P:Como essas máquinas podem ajudar as pessoas a controlar suas emoções?
Xiaoice é um chatbot muito popular na China. Tudo começou como um projeto de pesquisa. O objetivo do projeto é realmente fascinante, porque, ao contrário de muita assistência que o ajuda a realizar o trabalho, o objetivo de Xiaoice era apenas fazer uma experiência envolvente. Como podemos ajudar o sistema a encorajar as pessoas a falar (umas com as outras) e a incluí-lo nas conversas?
Uma das coisas que (Xiaoice) faz na conversa é entender, "Oh, isso é uma pergunta, ou este é um momento em que você só quer conversar comigo, e você realmente não quer que eu receba uma resposta. "Então (o chatbot) está tentando dividir a conversa de maneiras diferentes que uma pessoa possa pensar sobre comunicação. Talvez o bot ouça um pouco mais.
Eles têm conversas que duram horas com pessoas que basicamente precisam de empatia, para falar com alguem, para fazer mais diversão, coisas sociais. Esse é um exemplo de sistema projetado para estudar mais interações sociais e emocionais, do que apenas ser produtivo.
P:É como um robô de terapia?
Pode potencialmente (ser). Uma das habilidades pode ser ajudá-lo se você estiver tendo problemas de relacionamento. Mas também faz coisas muito práticas, como te ensina inglês, ou te ajuda com a tradução, para que ele entenda melhor qual é o seu objetivo e mostre as habilidades que você deseja.
P:Como o bot é capaz de compreender se alguém está triste ou fazendo uma pergunta?
R:São muitas coisas diferentes - pode ser a entonação da sua voz ou as palavras reais que você está dizendo, bem como o tipo de interação que você está tendo, sua história e algumas das coisas que você fez no passado.
P:A inteligência emocional também pode ajudar a combater a perpetuação de preconceitos nos algoritmos de IA?
R:É o nosso sonho - ainda estamos muito longe de a IA ter consciência de quando está sendo tendenciosa e quando não é. Ainda temos esse problema com as pessoas, então isso é provavelmente algo em que precisamos trabalhar por muito tempo. Mas se não começarmos a pensar e trabalhar nisso agora na raiz dos sistemas que criamos, então, com certeza, criaremos sistemas que replicam muitos dos problemas que vemos na sociedade.
Temos uma colaboração com um grupo chamado OpenAI para garantir que as ferramentas estejam disponíveis, para que você não precise ter um Ph.D em IA para fazer as coisas. Treinar as pessoas para serem capazes de construir o tipo de coisas que desejam experimentar é extremamente crítico para a sociedade em geral.
E (em termos de) conjuntos de dados, queremos ter certeza de que homens e mulheres, pessoas mais velhas e mais jovens, e aqueles que moram em lugares diferentes estão todos representados nos dados que usamos para treinar os modelos (IA). Se for apenas um lado muito limitado da sociedade, então, apenas de uma perspectiva de negócios, você não alcançará ... muitos de seus clientes, e queremos que essas ferramentas resolvam muitos problemas.
P:A que distância você acha que os desenvolvedores estão de incorporar inteligência emocional em todas as máquinas de IA?
Depende de como você define inteligência emocional. O que adoro na IA de conversação é que, em um nível muito básico, se você não tem algumas qualidades humanas nos sistemas, eles se sentem quebrados. Se algo não souber como responder se você cumprimentá-lo, ou não conhece um pouco de sua história, eles não se sentem muito inteligentes.
Em muitos dos sistemas de conversação que estamos vendo, as pessoas pensam sobre (inteligência emocional) desde o início (no desenvolvimento). Muitas vezes, as pessoas que projetam os sistemas não são engenheiros - são escritores, ou são designers que pensaram sobre o tipo de emoções que você pode sentir se usar um produto. Estamos muito longe de tornar esse (processo) automatizado. Mas eu acho ótimo ver as pessoas pensando sobre (inteligência emocional) no começo.
P:Você prevê algum perigo potencial para as máquinas com inteligência emocional?
R:Como com tudo, quanto mais as coisas parecem naturais, precisamos ter certeza de que as pessoas entendem quando as coisas são reais ou não. Por tudo que fazemos, temos um conselho de ética para examinar os produtos da Microsoft e um conjunto de diretrizes de design.
Aplicamos as leis de privacidade a tudo o que fazemos e ... garantir que não haja distorções em nossos próprios dados é muito importante para todos os produtos que temos. Tentamos compartilhar essas diretrizes com qualquer pessoa que use nossas ferramentas para criar sua própria experiência.
© 2019 The Seattle Times
Distribuído pela Tribune Content Agency, LLC.