• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Reduzir a desconfiança nas redes sociais não é simples, alertam cientistas da computação

    Confiança e desconfiança nas mídias sociais coexistiram entre os participantes do estudo. Crédito:Emmaline Nelsen


    As intervenções anti-desinformação nas redes sociais estão a funcionar como pretendido? Depende, de acordo com um novo estudo liderado por pesquisadores da William &Mary e publicado no Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI '24).



    O estudo entrevistou mais de 1.700 participantes nos Estados Unidos, revelando que os recursos anti-desinformação aumentaram a conscientização dos usuários sobre a desinformação nas redes sociais; mas não os tornou mais propensos a partilhar informações nas redes sociais, nem mais dispostos a receber informações das plataformas. Tanto a confiança como a desconfiança coexistiram nos participantes, emergindo como características distintas e não simplesmente como extremos opostos de um espectro.

    “A dinâmica de confiança e desconfiança é a espinha dorsal da sociedade”, disse Yixuan (Janice) Zhang, professora assistente do Departamento de Ciência da Computação William &Mary. O estudo definiu e mediu esses conceitos, fornecendo uma pesquisa validada para uso futuro.

    Zhang atuou como autor principal ao lado de Yimeng (Yvonne) Wang, Ph.D. estudante de ciência da computação; o grupo de autores também incluiu pesquisadores de universidades de três países, todos contribuindo para o campo multidisciplinar da interação humano-computador.

    “A IHC tem muito a ver com computação equitativa, porque estamos lidando com assuntos humanos”, disse Zhang. Sua experiência em HCI se alinha com a posição da William &Mary na evolução das artes liberais e das ciências, expressada apropriadamente pela escola proposta em computação, ciência de dados e física.

    O estudo centrou-se no Facebook, X (anteriormente Twitter), YouTube e TikTok como fontes de notícias e informações habitualmente utilizadas, visando expressamente o período de Janeiro de 2017 a Janeiro de 2023 como coincidindo com o aumento de grandes campanhas de desinformação.

    Durante o período examinado, todas estas plataformas implementaram estratégias anti-desinformação, tais como a rotulagem de informações falsas, a curadoria de conteúdos credíveis e a ligação a fontes adicionais. Exemplos destas intervenções foram mostrados aos participantes do estudo que se envolveram recentemente com as plataformas.

    Em seguida, pediu-se aos respondentes que expressassem o seu nível de concordância com oito afirmações, que mediam quatro facetas de confiança e quatro facetas de desconfiança.

    Por exemplo, declarações que utilizam a dimensão de confiança da “competência” sondaram a confiança dos utilizadores na capacidade das plataformas para combater a desinformação; declarações usando a dimensão de desconfiança de “malevolência” avaliaram a crença dos usuários na suposta disseminação de desinformação das plataformas. Outras facetas da confiança incluíam benevolência, fiabilidade e confiança; a desconfiança implicava ceticismo, desonestidade e medo.

    Além disso, o estudo investigou como intervenções específicas anti-desinformação se relacionavam com a confiança e desconfiança dos utilizadores nas redes sociais e como a sua experiência com esses recursos influenciava as suas atitudes e comportamentos.

    Uma análise dos resultados destacou um grupo de entrevistados com elevada confiança e elevada desconfiança, indicando potencialmente que os utilizadores eram exigentes nos aspectos específicos das plataformas que apoiavam. Além disso, esse fenômeno sugeriu uma discrepância entre a percepção dos participantes sobre uma determinada plataforma e suas experiências de interação. Isso significa que os usuários, por exemplo, podem confiar que outros usuários compartilharão informações confiáveis, ao mesmo tempo em que são céticos quanto à capacidade da plataforma de lidar com a desinformação.

    Os investigadores também observaram que as perceções de confiança e desconfiança variavam entre plataformas e eram influenciadas por fatores demográficos. Estas conclusões, argumentaram, podem ser úteis para os decisores políticos e reguladores na adaptação de intervenções às culturas e contextos específicos dos utilizadores.

    Como pesquisador de HCI, Zhang acredita na computação centrada no ser humano e na colaboração entre diversas disciplinas. Além de projetar e implementar tecnologias computacionais, durante seu doutorado. programa ela se familiarizou com teorias educacionais e de ciências sociais.

    Os interesses de Wang também residem na interação entre humanos e computadores. Ela está agora investigando o uso da tecnologia na abordagem de questões de saúde mental e na construção de plataformas confiáveis ​​para que os usuários melhorem seu bem-estar mental.

    “À medida que nos concentramos nos seres humanos, queremos realmente saber se o nosso trabalho pode ajudá-los”, disse ela.

    Mais informações: Yixuan Zhang et al, Profiling the Dynamics of Trust &Distrust in Social Media:A Survey Study, Proceedings of the CHI Conference on Human Factors in Computing Systems (2024). DOI:10.1145/3613904.3642927
    Fornecido por William &Mary



    © Ciência https://pt.scienceaq.com