Para limitar a desinformação, algumas redes sociais limitaram o quanto os usuários podem compartilhar postagens. Crédito:Gerd Altmann via Pixabay
Controlar a disseminação de desinformação nas plataformas de mídia social estimulou conversas importantes sobre censura e liberdade de expressão.
"Uma suposição tácita é que censura, verificação de fatos e educação são as únicas ferramentas para combater a desinformação", diz o economista da Duke University, David McAdams. Em uma nova pesquisa publicada na revista
Proceedings of the National Academy of Sciences , McAdams e colaboradores exploram maneiras de melhorar a qualidade das informações compartilhadas nas redes sem responsabilizar nenhuma entidade por policiar o conteúdo e decidir o que é verdadeiro e falso.
O modelo sugere que, para reduzir a disseminação de informações falsas, a rede pode definir limites para a amplitude de compartilhamento de determinadas mensagens, e fazê-lo de uma maneira que não seja excessivamente restritiva para os usuários.
"Mostramos que os limites de quantas vezes as mensagens podem ser encaminhadas (profundidade da rede) ou o número de outras pessoas para quem as mensagens podem ser encaminhadas (amplitude da rede) aumentam o número relativo de mensagens verdadeiras versus falsas que circulam em uma rede, independentemente de mensagens são acidentalmente ou deliberadamente distorcidas", diz McAdams.
"Por exemplo, o Twitter poderia limitar a amplitude de compartilhamento em seu site, limitando quantas pessoas veem um determinado retweet em seus feeds do Twitter", diz ele.
Tanto o Facebook quanto o WhatsApp, dois aplicativos de propriedade da empresa-mãe Meta, que permitem que os usuários enviem mensagens entre si, usaram métodos semelhantes ao modelo dos pesquisadores para limitar a disseminação de informações erradas.
Em 2020, o Facebook anunciou limites para quantas pessoas ou grupos os usuários poderiam encaminhar mensagens, limitando em cinco, em parte para combater a desinformação sobre o COVID-19 e a votação. No início daquele ano, o WhatsApp introduziu limites semelhantes, proibindo seus mais de dois bilhões de usuários de encaminhar mensagens para mais de cinco pessoas ao mesmo tempo, em parte por causa de mais de uma dúzia de mortes que funcionários públicos na Índia vincularam a informações falsas que estavam se espalhando em o aplicativo, observaram os pesquisadores.
Essa abordagem não elimina a desinformação, mas, na ausência de outros métodos, pode reduzir a gravidade do problema até que outras soluções possam ser desenvolvidas para resolver o cerne do problema, diz McAdams.
"Quando a desinformação se espalha por uma rede social, pode causar danos", diz McAdams, que tem nomeações para professores no departamento de economia e na Fuqua School of Business. "Algumas pessoas podem começar a acreditar em coisas falsas e que podem prejudicá-las ou a outras pessoas."
Também pode fazer com que algumas pessoas percam a confiança na plataforma, o que significa que elas podem ser menos propensas a acreditar ou agir com base em informações corretas que realmente poderiam ajudá-las ou a outras pessoas, diz ele.
“Se você limitar o compartilhamento, também poderá limitar a disseminação de boas informações, então você pode estar jogando o bebê fora com a água do banho e isso realmente não ajuda você”, adverte McAdams. "Nossa análise explora como atingir esse equilíbrio."
+ Explorar mais WhatsApp reforça limites de compartilhamento para conter desinformação de vírus