• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Os chatbots de IA podem ajudar a preencher a lacuna de empatia?

    Crédito:Michigan State University

    Estressado? Precisa falar? Recorrer a um chatbot para apoio emocional pode ajudar.
    O professor associado de comunicação da ComArtSci, Jingbo Meng, queria ver quão eficazes os chatbots de inteligência artificial (IA) poderiam ser na entrega de mensagens de apoio. Então ela configurou a pesquisa e usou uma plataforma de desenvolvimento de chatbot para testá-la.

    “Os chatbots têm sido amplamente aplicados no atendimento ao cliente por meio de comunicação baseada em texto ou voz”, disse ela. “É uma extensão natural pensar em como os chatbots de IA podem desempenhar um papel em fornecer empatia depois de ouvir as histórias e preocupações de alguém”.

    Conversando

    No início de 2019, Meng começou a avaliar a eficácia dos chatbots empáticos comparando-os com o chat humano. Ela vinha acompanhando o crescimento dos aplicativos digitais de saúde e bem-estar e viu o crescimento fenomenal daqueles relacionados à saúde mental. Sua colaboração anterior com colegas de engenharia da MSU se concentrou em um sistema móvel vestível para detectar, rastrear e consultar os usuários sobre marcadores comportamentais de estresse e depressão. A colaboração a inspirou a usar chatbots que iniciam conversas com os usuários quando os marcadores comportamentais são identificados.

    "Sentimos que algumas comunicações de chatbot podem funcionar, outras não", disse Meng. "Eu queria fazer mais pesquisas para entender o porquê, para que possamos desenvolver mensagens mais eficazes para usar em aplicativos de saúde mental".

    Meng recrutou 278 alunos de graduação da MSU para seu estudo e pediu que identificassem os principais estressores que experimentaram no mês anterior. Os participantes foram então conectados através do Facebook Messenger com um parceiro de bate-papo empático. Um grupo foi informado de que estaria conversando com um chatbot, outro entendeu que estaria conversando com um humano. A ruga? Meng o configurou para que apenas os chatbots entregassem consultas e mensagens, permitindo que ela avaliasse se os participantes reagiam de maneira diferente quando pensavam que seu parceiro de bate-papo era humano.

    Meng também variou o nível de auto-revelação recíproca que os participantes experimentariam durante suas sessões de 20 minutos. Alguns chatbots compartilharam suas próprias experiências como forma de evocar empatia. Outros chatbots simplesmente expuseram seus próprios problemas pessoais às custas de não validar os participantes."

    Com exceção dos diferentes cenários de autodivulgação recíproca, o conteúdo e o fluxo das conversas foram roteirizados exatamente da mesma forma para chatbots e para os parceiros de chat humanos percebidos. Os chatbots pediram aos participantes que identificassem estressores. Eles perguntaram como os participantes se sentiam. Eles investigaram por que os participantes achavam que os estressores os faziam sentir de certas maneiras. Em seguida, os chatbots compartilharam suas próprias experiências.

    "Eles foram programados para validar e ajudar os participantes a passar por situações estressantes", disse ela. "Nosso objetivo era ver o quão eficaz a mensagem poderia ser."

    Cuidando

    Meng descobriu que, ao conversar com um chatbot ou com um humano, o participante precisava sentir que o parceiro é solidário ou atencioso. Se essa condição for atendida, a conversa é bem-sucedida na redução do estresse.

    Seu estudo também revelou que, independentemente da mensagem, os participantes sentiram que os humanos eram mais atenciosos e solidários do que um chatbot.

    Seus cenários de auto-revelação recíproca contavam outra história. Parceiros humanos que se auto-revelam - independentemente de sua intenção ser empática ou apenas elaborar seus próprios problemas - contribuíram para a redução do estresse. Mas os chatbots que se revelavam sem oferecer apoio emocional faziam pouco para reduzir o estresse de um participante – ainda menos do que os chatbots que não diziam nada.

    “Os humanos são simplesmente mais relacionáveis”, disse Meng. "Quando conversamos com outro humano, mesmo quando ele não valida nossas emoções, podemos nos relacionar com mais naturalidade. Os chatbots, no entanto, precisam ser mais explícitos e enviar mensagens de maior qualidade. Caso contrário, a auto-revelação pode ser irritante e incômoda. -colocando."

    Percebendo a origem

    Meng conduziu e analisou pesquisas com Yue (Nancy) Dai, uma aluna de 2018 do programa de doutorado em Comunicação da MSU e professora da Universidade da Cidade de Hong Kong. Suas descobertas foram publicadas no Journal of Computer-Mediated Communication.

    Meng disse que o estudo ressalta que os chatbots usados ​​em aplicativos de saúde mental funcionam melhor quando percebidos como uma fonte verdadeiramente atenciosa. Ela planeja acompanhar o estudo com pesquisas adicionais que examinam como as mensagens podem ser projetadas para aumentar o fator de cuidado.

    Os aplicativos de saúde mental, disse ela, não estão desaparecendo e, de fato, estão aumentando em uso e disponibilidade. Embora a maioria das pessoas tenha acesso a um telefone celular, muitas não têm acesso imediato a um terapeuta ou plano de saúde. Os aplicativos, disse ela, podem ajudar os indivíduos a gerenciar situações específicas e podem fornecer referências para cuidados de suporte adicionais.

    “De forma alguma esses aplicativos e chatbots substituirão um humano”, disse ela. “Acreditamos que o modelo híbrido de chatbots de IA e um terapeuta humano será muito promissor”.
    © Ciência https://pt.scienceaq.com