• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    Quando os chatbots humanóides erram o alvo nas interações de atendimento ao cliente

    Crédito CC0:domínio público

    Pesquisadores da Universidade de Oxford publicaram um novo artigo no Jornal de Marketing que examina o uso de chatbots em funções de atendimento ao cliente e descobre que, quando os clientes estão com raiva, chatbots semelhantes aos humanos podem afetar negativamente a satisfação do cliente, avaliações gerais da empresa, e subseqüentes intenções de compra.

    Os chatbots estão cada vez mais substituindo agentes humanos de atendimento ao cliente em sites de empresas, páginas de mídia social, e serviços de mensagens. Projetado para imitar os humanos, esses bots costumam ter nomes humanos (por exemplo, Alexa da Amazon), aparências humanas (por exemplo, avatares), e a capacidade de conversar como humanos. A suposição é que ter qualidades humanas torna os chatbots mais eficazes nas funções de atendimento ao cliente. Contudo, este estudo sugere que nem sempre é esse o caso.

    A equipe de pesquisa descobre que, quando os clientes estão com raiva, a implantação de chatbots semelhantes aos humanos pode afetar negativamente a satisfação do cliente, avaliação geral da empresa, e subseqüentes intenções de compra. Porque? Porque os chatbots semelhantes aos humanos geram expectativas irreais de quão úteis eles serão.

    Os pesquisadores realizaram cinco experimentos para entender melhor como os chatbots semelhantes aos humanos afetam o atendimento ao cliente.

    O Estudo 1 analisa quase 35, 000 sessões de chat entre o chatbot de uma empresa internacional de telecomunicações móveis e seus clientes. Os resultados mostram que quando um cliente estava com raiva, a aparência humana do chatbot teve um efeito negativo na satisfação do cliente.

    O Estudo 2 é uma série de cenários de atendimento ao cliente simulados e bate-papos em que 201 participantes eram neutros ou irritados e o chatbot era ou não humano. Novamente, clientes zangados exibiam menor satisfação geral quando o chatbot era humano do que quando não era.

    O estudo 3 demonstra que o efeito negativo se estende às avaliações gerais da empresa, mas não quando o chatbot resolve efetivamente o problema (ou seja, satisfaz as expectativas). Mais de 400 participantes irritados se engajaram em uma simulação de bate-papo com um chatbot humano ou não humano e seus problemas foram resolvidos de forma eficaz ou não durante as interações. Como esperado, quando os problemas não foram resolvidos de forma eficaz, os participantes relataram avaliações mais baixas da empresa quando interagiram com um chatbot semelhante a um humano em comparação com um não-humano. Ainda, quando seus problemas foram efetivamente resolvidos, as avaliações da empresa foram mais altas, sem diferença com base no tipo de chatbot.

    O Estudo 4 é um experimento com 192 participantes que fornece evidências de que esse efeito negativo é impulsionado pelo aumento das expectativas do chatbot de aparência humana. As pessoas esperam que os chatbots semelhantes aos humanos tenham um desempenho melhor do que os não humanos; mas essas expectativas não são atendidas, levando a intenções de compra reduzidas.

    O estudo 5 mostra que reduzir explicitamente as expectativas do cliente em relação ao chatbot humano antes do chat reduz a resposta negativa de clientes irritados aos chatbots humanóides. Quando as pessoas não tinham mais expectativas irreais de quão útil o chatbot humano seria, os clientes irritados não os penalizavam mais com avaliações negativas.

    Os pesquisadores dizem que "Nossas descobertas fornecem um roteiro claro para a melhor forma de implantar chatbots ao lidar com hostis, clientes irritados ou reclamando. É importante que os profissionais de marketing projetem com cuidado os chatbots e considerem o contexto em que são usados, particularmente quando se trata de lidar com reclamações de clientes ou resolver problemas. "As empresas devem tentar avaliar se um cliente está zangado antes de entrar no chat (por exemplo, via processamento de linguagem natural) e, em seguida, implantar o chatbot mais eficaz (semelhante ou não humano). Se o cliente não está zangado, atribuir um chatbot semelhante ao humano; mas se o cliente estiver zangado, atribuir um chatbot não humano.

    Se esta estratégia sofisticada não for tecnicamente viável, as empresas poderiam atribuir chatbots não humanos em situações de atendimento ao cliente onde os clientes tendem a ficar com raiva, como centros de reclamação. Ou as empresas podem minimizar as capacidades dos chatbots semelhantes aos humanos (por exemplo, O chatbot do Slack se apresenta dizendo "Tento ser útil (mas ainda sou apenas um bot. Desculpe!" Ou "Não sou um humano. Apenas um bot, um simples bot, com apenas alguns truques na manga metafórica! "). Essas estratégias devem ajudar a evitar ou mitigar a menor satisfação do cliente, avaliação geral da empresa, e subseqüentes intenções de compra relatadas por clientes furiosos em relação a chatbots de aparência humana.


    © Ciência https://pt.scienceaq.com