• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Robôs que brincam:podemos confiar neles novamente?

    Crédito:Domínio Público CC0

    Quando os robôs cometem erros – e eles cometem de tempos em tempos – restabelecer a confiança com colegas de trabalho humanos depende de como as máquinas assumem os erros e de como eles parecem humanos, de acordo com uma pesquisa da Universidade de Michigan.
    Em um estudo que examinou várias estratégias de reparo de confiança – desculpas, negações, explicações ou promessas – os pesquisadores descobriram que certas abordagens direcionadas a colegas de trabalho humanos são melhores do que outras e geralmente são afetadas pela aparência dos robôs.

    “Os robôs são definitivamente uma tecnologia, mas suas interações com humanos são sociais e devemos levar em conta essas interações sociais se esperamos que os humanos confiem e confiem confortavelmente em seus colegas de trabalho robôs”, disse Lionel Robert, professor associado da U-M School of Em formação.

    “Os robôs cometerão erros ao trabalhar com humanos, diminuindo a confiança dos humanos neles. Portanto, devemos desenvolver maneiras de reparar a confiança entre humanos e robôs. parece."

    Para seu estudo publicado no Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert e o estudante de doutorado Connor Esterwood examinaram como as estratégias de reparo – incluindo uma nova estratégia de explicações – impactam os elementos que impulsionam a confiança:habilidade (competência), integridade (honestidade) e benevolência (preocupação com quem confia).

    Os pesquisadores recrutaram 164 participantes para trabalhar com um robô em um ambiente virtual, carregando caixas em uma esteira rolante. O humano era o responsável pela garantia de qualidade, trabalhando ao lado de um robô encarregado de ler os números de série e carregar 10 caixas específicas. Um robô era antropomórfico ou mais humano, o outro de aparência mais mecânica.

    Os robôs foram programados para pegar intencionalmente algumas caixas erradas e fazer uma das seguintes declarações de reparação de confiança:errado" (negação), "Vejo que era o número de série errado" (explicação) ou "Vou fazer melhor da próxima vez e pegar a caixa certa" (promessa).

    Estudos anteriores examinaram desculpas, negações e promessas como fatores de confiança ou confiabilidade, mas este é o primeiro a considerar as explicações como uma estratégia de reparo e teve o maior impacto na integridade, independentemente da aparência do robô.

    Quando o robô era mais humano, era ainda mais fácil restaurar a confiança na integridade quando as explicações eram dadas e na benevolência quando se ofereciam desculpas, negações e explicações.

    Como na pesquisa anterior, desculpas de robôs produziram maior integridade e benevolência do que negações. As promessas superaram as desculpas e as negações quando se tratava de medidas de benevolência e integridade.

    Esterwood disse que este estudo está em andamento com mais pesquisas pela frente envolvendo outras combinações de reparos de confiança em diferentes contextos, com outras violações.

    "Ao fazer isso, podemos estender ainda mais esta pesquisa e examinar cenários mais realistas, como se pode ver na vida cotidiana", disse Esterwood. "Por exemplo, a explicação de um robô barista sobre o que deu errado e a promessa de fazer melhor no futuro reparo confia mais ou menos do que um robô de construção?"
    © Ciência https://pt.scienceaq.com