• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    Más notícias? Envie uma IA. Boas notícias? Envie um humano

    Crédito:Pixabay/CC0 Public Domain

    Pesquisadores da University of Kentucky, University of Technology Sydney e University of Illinois-Chicago publicaram um novo artigo no Journal of Marketing que examina a resposta do cliente e as implicações de satisfação do uso de agentes de IA versus agentes humanos.
    O estudo, a ser publicado no Journal of Marketing, é intitulado "Bad News? Send an AI. Good News? Send a Human" e é de autoria de Aaron Garvey, TaeWoo Kim, Adam Duhachek.

    Somos mais tolerantes com um agente de inteligência artificial (IA) do que com um humano quando somos decepcionados? Menos apreciadores de um bot de IA do que de um humano quando somos ajudados? Uma nova pesquisa examina essas questões e descobre que os consumidores respondem de maneira diferente ao tratamento favorável e desfavorável nas mãos de um agente de IA em relação a outro humano.

    Atualmente, consumidores e gerentes de marketing estão em um período de transição tecnológica em que os agentes de IA estão substituindo cada vez mais os representantes humanos. Os agentes de IA foram adotados em uma ampla gama de domínios de consumidores para lidar com transações de clientes, incluindo varejo tradicional, viagens, compartilhamento de viagens e residências e até serviços jurídicos e médicos. Dadas as capacidades avançadas de processamento de informações dos agentes de IA e as vantagens de custo de mão de obra, espera-se que a transição dos representantes humanos para administrar produtos e serviços continue. No entanto, quais são as implicações para a resposta e satisfação do cliente?

    Os pesquisadores descobriram que quando uma oferta de produto ou serviço é pior do que o esperado, os consumidores respondem melhor ao lidar com um agente de IA. Por outro lado, para uma oferta melhor do que o esperado, os consumidores respondem mais favoravelmente a um agente humano. Garvey explica que "Isso acontece porque os agentes de IA, comparados aos agentes humanos, são percebidos como tendo intenções pessoais mais fracas ao tomar decisões. Ou seja, como um agente de IA é uma máquina não humana, os consumidores normalmente não acreditam que o comportamento de um agente de IA é movido pelo egoísmo ou bondade subjacentes." Como resultado, os consumidores acreditam que os agentes de IA não têm intenções egoístas (que normalmente seriam punidas) no caso de uma oferta desfavorável e não têm intenções benevolentes (que normalmente seriam recompensadas) no caso de uma oferta favorável.

    Projetar um agente de IA para parecer mais humano pode mudar a resposta do consumidor. Por exemplo, um robô de serviço que parece mais humano (por exemplo, com estrutura do corpo humano e características faciais) provoca respostas mais favoráveis ​​a uma oferta melhor do que o esperado do que um agente de IA mais parecido com uma máquina sem recursos humanos. Isso ocorre porque os agentes de IA que são mais humanos são percebidos como tendo intenções mais fortes ao fazer a oferta.

    O que isso significa para os gerentes de marketing? Kim diz:"Para um profissional de marketing que está prestes a dar más notícias a um cliente, um representante de IA melhorará a resposta desse cliente. Essa seria a melhor abordagem para situações negativas, como ofertas inesperadamente altas de preços, cancelamentos, atrasos, avaliações negativas, mudanças de status, defeitos de produtos, rejeições, falhas de serviço e falta de estoque. No entanto, boas notícias são melhor entregues por um ser humano. Resultados inesperadamente positivos podem incluir entregas rápidas, descontos, atualizações, pacotes de serviços, ofertas exclusivas, recompensas de fidelidade e promoções para clientes."

    Os gerentes podem aplicar nossas descobertas para priorizar (vs. adiar) as transições de papéis de humanos para IA em situações em que interações negativas (vs. positivas) são mais frequentes. Além disso, mesmo quando uma transição de função não é totalmente passada para um agente de IA, o recrutamento seletivo de um agente de IA para divulgar certas informações negativas ainda pode ser vantajoso. As empresas que já fizeram a transição para agentes de IA voltados para o consumidor, incluindo a infinidade de aplicativos online e móveis que usam algoritmos baseados em IA para criar e administrar ofertas, também se beneficiam de nossas descobertas. Nossa pesquisa revela que os agentes de IA devem ser seletivamente feitos para parecerem mais ou menos humanos, dependendo da situação. Para os consumidores, essas descobertas revelam um "ponto cego" ao lidar com agentes de IA, principalmente ao considerar ofertas que ficam aquém das expectativas. De fato, a pesquisa revela um dilema ético em torno do uso de agentes de IA – é apropriado usar a IA para contornar a resistência do consumidor a ofertas ruins? “Esperamos que conscientizar os consumidores sobre esse fenômeno melhore sua qualidade de decisão ao lidar com agentes de IA, além de fornecer técnicas aos gerentes de marketing, como tornar a IA mais humana em certos contextos, para gerenciar esse dilema”, diz Duhachek.
    © Ciência https://pt.scienceaq.com