Crédito:Domínio Público CC0
Não é nenhum segredo, a inteligência artificial (IA) está mudando o jogo de atendimento ao cliente.
A sociedade está em um período de transição tecnológica onde os agentes de IA estão substituindo cada vez mais os representantes ao vivo. Eles foram adotados em uma ampla variedade de domínios de consumo, desde varejo tradicional, viagens, viagens e compartilhamento de residência até serviços jurídicos e médicos.
Dadas as capacidades avançadas de processamento e as vantagens de custo de mão de obra, espera-se que essa transição continue.
Mas quais são as implicações para a resposta e satisfação do cliente?
Somos mais tolerantes com um bot de IA do que com um agente ao vivo quando somos decepcionados? Menos agradecidos quando somos ajudados?
Pesquisadores da Universidade de Kentucky, da Universidade de Illinois-Chicago e da Universidade de Tecnologia de Sydney conduziram um estudo para examinar essas questões.
O estudo, a ser publicado no
Journal of Marketing — é intitulado "Bad News? Send an AI. Good News? Send a Human" e é de autoria de Aaron Garvey, TaeWoo Kim e Adam Duhachek.
"Começou querendo entender se temos um 'ponto cego' ao negociar com uma IA em vez de um humano. Em particular, um ponto cego que permite à IA se safar com uma oferta que não aceitaríamos de um humano", Garvey, professor de marketing da Gatton College of Business and Economics, disse. "A IA já parece estar em todos os lugares, mas substituirá ainda mais representantes humanos com o passar do tempo. Eu queria entender se isso deixa os consumidores abertos à exploração por meio de pontos cegos e como podemos lidar com isso eticamente avançando."
De acordo com o estudo, quando uma oferta de produto ou serviço é pior do que o esperado, os consumidores respondem melhor a um agente de IA. No entanto, para uma oferta melhor do que o esperado, os consumidores respondem mais favoravelmente a um agente ao vivo.
“Isso acontece porque os agentes de IA são percebidos como tendo intenções pessoais mais fracas ao tomar decisões”, disse Garvey. “Como um agente de IA é uma máquina não humana, os consumidores normalmente não acreditam que seu comportamento seja motivado por egoísmo ou bondade subjacentes”.
Em conclusão, os consumidores acreditam que os agentes de IA não têm intenções egoístas (que normalmente seriam punidas) no caso de uma oferta desfavorável e não têm intenções benevolentes (que normalmente seriam recompensadas) no caso de uma oferta favorável.
No entanto, projetar um agente de IA para parecer mais humano pode mudar a resposta do consumidor. Por exemplo, um robô de serviço com estrutura corporal e características faciais provoca respostas mais favoráveis a uma oferta melhor do que o esperado.
“Isso ocorre porque os agentes de IA que são mais parecidos com humanos são percebidos como tendo intenções mais fortes”, disse Garvey.
O que esses resultados significam para os gerentes de marketing?
"Para um profissional de marketing que está prestes a dar más notícias a um cliente, um representante de IA melhorará a resposta desse cliente. Essa seria a melhor abordagem para situações negativas, como ofertas inesperadamente altas de preço, cancelamentos, atrasos, avaliações negativas, alterações de status, defeitos de produtos, rejeições, falhas de serviço e falta de estoque", explicou Kim. "Entretanto, as boas notícias são melhor entregues por um ser humano. Resultados inesperadamente positivos podem incluir entregas rápidas, descontos, atualizações, pacotes de serviços, ofertas exclusivas, recompensas de fidelidade e promoções para clientes."
Para os consumidores, essas descobertas revelam um "ponto cego" ao lidar com agentes de IA, principalmente ao considerar ofertas que ficam aquém das expectativas.
“Esperamos que conscientizar os consumidores sobre esse fenômeno melhore sua qualidade de decisão ao lidar com agentes de IA, além de fornecer técnicas aos gerentes de marketing – como tornar a IA mais humana em certos contextos – para gerenciar esse dilema”, disse Duhachek.