• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Confiamos em agentes de inteligência artificial para mediar conflitos? Não inteiramente

    Crédito CC0:domínio público

    Podemos ouvir fatos da Siri ou Alexa, ou direções do Google Maps ou Waze, mas será que deixaríamos um agente virtual habilitado pela inteligência artificial ajudar a mediar conflitos entre os membros da equipe? Um novo estudo diz que ainda não.

    Pesquisadores da USC e da Universidade de Denver criaram uma simulação na qual uma equipe de três pessoas era apoiada por um avatar de agente virtual na tela em uma missão que foi projetada para garantir o fracasso e provocar conflito. O estudo foi projetado para olhar para os agentes virtuais como mediadores potenciais para melhorar a colaboração da equipe durante a mediação de conflitos.

    Confessar para eles? sim. Mas no calor do momento, vamos ouvir agentes virtuais?

    Enquanto alguns dos pesquisadores (Gale Lucas e Jonathan Gratch da USC Viterbi School Engineering e do USC Institute for Creative Technologies que contribuíram para este estudo), já havia descoberto que as interações humanas individuais com um terapeuta agente virtual geravam mais confissões, neste estudo "Mediação de Conflitos na Equipe Homem-Máquina:Usando um Agente Virtual para Apoiar o Planejamento e Avaliação da Missão, "os membros da equipe eram menos propensos a se envolver com um agente virtual masculino chamado" Chris "quando o conflito surgia.

    Os membros participantes da equipe não abordaram fisicamente o dispositivo (como vimos humanos atacando robôs em postagens virais de mídia social), mas, em vez disso, estavam menos engajados e menos propensos a ouvir a entrada do agente virtual uma vez que a falha ocorria e o conflito surgia entre os membros da equipe.

    O estudo foi conduzido em um ambiente de academia militar em que 27 cenários foram projetados para testar como a equipe que incluía um agente virtual reagiria ao fracasso e à garantia do conflito. O agente virtual não foi ignorado de forma alguma. O estudo constatou que as equipes responderam socialmente ao agente virtual durante o planejamento da missão que lhes foi atribuída (acenando com a cabeça, sorrindo e reconhecendo a entrada do agente virtual ao agradecê-lo), mas quanto mais tempo o exercício progrediu, seu envolvimento com o agente virtual diminuiu. Os participantes não culparam inteiramente o agente virtual por sua falha.

    "A coesão da equipe ao realizar tarefas complexas em conjunto é um fator altamente complexo e importante, "diz o autor principal, Kerstin Haring, professor assistente de ciência da computação na Universidade de Denver.

    "Nossos resultados mostram que agentes virtuais e robôs potencialmente sociais podem ser um bom mediador de conflitos em todos os tipos de equipes. Será muito interessante descobrir as intervenções e respostas sociais para integrar perfeitamente os agentes virtuais em equipes humanas para que tenham um desempenho melhor . "

    Coautor do estudo, Gale Lucas, Professor Assistente de Pesquisa de Ciência da Computação na USC, e pesquisador do Institute for Creative Technologies, acrescenta que alguns comentários dos participantes do estudo indicam que eles percebem os agentes virtuais como neutros e imparciais. Ela gostaria de continuar o trabalho para ver se os agentes virtuais podem ser aplicados "para nos ajudar a tomar melhores decisões" e pressionar "o que é necessário para que confiemos nos agentes virtuais".

    Embora este estudo tenha sido realizado em uma academia militar com estruturas particulares, os pesquisadores esperam desenvolver este projeto para melhorar os processos da equipe em todos os tipos de ambientes de trabalho.


    © Ciência https://pt.scienceaq.com