Pessoas que desconfiam de outros humanos demonstram maior confiança na inteligência artificial
Crédito:Pixabay/CC0 Public Domain
A desconfiança de uma pessoa em humanos prevê que ela terá mais confiança na capacidade da inteligência artificial de moderar o conteúdo online, de acordo com um estudo publicado recentemente. As descobertas, dizem os pesquisadores, têm implicações práticas para designers e usuários de ferramentas de IA nas mídias sociais.
"Encontramos um padrão sistemático de indivíduos que têm menos confiança em outros humanos, mostrando maior confiança na classificação da IA", disse S. Shyam Sundar, professor de efeitos de mídia James P. Jimirro na Penn State. "Com base em nossa análise, isso parece ser devido aos usuários invocando a ideia de que as máquinas são precisas, objetivas e livres de viés ideológico."
O estudo, publicado na revista
New Media &Society também descobriram que "usuários avançados", que são usuários experientes de tecnologia da informação, tiveram a tendência oposta. Eles confiavam menos nos moderadores de IA porque acreditam que as máquinas não têm a capacidade de detectar nuances da linguagem humana.
O estudo descobriu que diferenças individuais, como desconfiança de outras pessoas e uso de energia, predizem se os usuários invocarão características positivas ou negativas das máquinas quando confrontados com um sistema baseado em IA para moderação de conteúdo, o que acabará influenciando sua confiança no sistema. Os pesquisadores sugerem que personalizar interfaces com base em diferenças individuais pode alterar positivamente a experiência do usuário. O tipo de moderação de conteúdo no estudo envolve o monitoramento de postagens de mídia social para conteúdo problemático, como discurso de ódio e ideação suicida.
"Uma das razões pelas quais alguns podem hesitar em confiar na tecnologia de moderação de conteúdo é que estamos acostumados a expressar livremente nossas opiniões online. Achamos que a moderação de conteúdo pode tirar isso de nós", disse Maria D. Molina, professora assistente de artes e ciências da comunicação na Michigan State University, e o primeiro autor deste artigo. "Este estudo pode oferecer uma solução para esse problema, sugerindo que, para pessoas que possuem estereótipos negativos de IA para moderação de conteúdo, é importante reforçar o envolvimento humano ao tomar uma decisão. Por outro lado, para pessoas com estereótipos positivos de máquinas, podemos reforçar a força da máquina destacando elementos como a precisão da IA."
O estudo também descobriu que usuários com ideologia política conservadora eram mais propensos a confiar na moderação alimentada por IA. Molina e o coautor Sundar, que também co-dirige o Media Effects Research Laboratory da Penn State, disseram que isso pode resultar de uma desconfiança na mídia convencional e nas empresas de mídia social.
Os pesquisadores recrutaram 676 participantes dos Estados Unidos. Os participantes foram informados de que estavam ajudando a testar um sistema de moderação de conteúdo que estava em desenvolvimento. Eles receberam definições de discurso de ódio e ideação suicida, seguidas de uma das quatro postagens diferentes de mídia social. As postagens foram sinalizadas por se encaixarem nessas definições ou não foram sinalizadas. Os participantes também foram informados se a decisão de sinalizar ou não a postagem foi feita por IA, um humano ou uma combinação de ambos.
A demonstração foi seguida por um questionário que perguntou aos participantes sobre suas diferenças individuais. As diferenças incluíam a tendência de desconfiar dos outros, ideologia política, experiência com tecnologia e confiança na IA.
“Somos bombardeados com muito conteúdo problemático, de desinformação a discurso de ódio”, disse Molina. “Mas, no final das contas, trata-se de como podemos ajudar os usuários a calibrar sua confiança em relação à IA devido aos atributos reais da tecnologia, em vez de serem influenciados por essas diferenças individuais”.
Molina e Sundar dizem que seus resultados podem ajudar a moldar a aceitação futura da IA. Ao criar sistemas personalizados para o usuário, os designers podem aliviar o ceticismo e a desconfiança e construir uma confiança adequada na IA.
“Uma grande implicação prática do estudo é descobrir estratégias de comunicação e design para ajudar os usuários a calibrar sua confiança em sistemas automatizados”, disse Sundar, que também é diretor do Centro de Inteligência Artificial Socialmente Responsável da Penn State. “Certos grupos de pessoas que tendem a ter muita fé na tecnologia de IA devem ser alertados para suas limitações e aqueles que não acreditam em sua capacidade de moderar conteúdo devem ser totalmente informados sobre a extensão do envolvimento humano no processo”.
+ Explorar mais Os usuários confiam na IA tanto quanto os humanos para sinalizar conteúdo problemático