• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A desinformação e os preconceitos infectam as redes sociais, tanto intencionalmente quanto acidentalmente

    Pessoas que compartilham informações incorretas em potencial no Twitter (em roxo) raramente conseguem ver correções ou checagem de fatos (em laranja). Crédito:Shao et al., CC BY-ND

    As mídias sociais estão entre as principais fontes de notícias nos EUA e em todo o mundo. No entanto, os usuários são expostos a conteúdo de precisão questionável, incluindo teorias de conspiração, clickbait, conteúdo hiperpartidário, pseudo ciência e até mesmo fabricou relatórios de "notícias falsas".

    Não é surpreendente que haja tanta desinformação publicada:spam e fraude online são lucrativos para os criminosos, e o governo e a propaganda política geram benefícios tanto partidários quanto financeiros. Mas o fato de o conteúdo de baixa credibilidade se espalhar tão rápida e facilmente sugere que as pessoas e os algoritmos por trás das plataformas de mídia social são vulneráveis ​​à manipulação.

    Nossa pesquisa identificou três tipos de preconceito que tornam o ecossistema de mídia social vulnerável a desinformação intencional e acidental. É por isso que nosso Observatório de Mídias Sociais na Universidade de Indiana está construindo ferramentas para ajudar as pessoas a se conscientizarem desses preconceitos e se protegerem de influências externas destinadas a explorá-los.

    Viés no cérebro

    Os preconceitos cognitivos se originam na maneira como o cérebro processa as informações que cada pessoa encontra todos os dias. O cérebro pode lidar com apenas uma quantidade finita de informações, e muitos estímulos recebidos podem causar sobrecarga de informações. Isso por si só tem sérias implicações para a qualidade da informação nas redes sociais. Descobrimos que a competição acirrada pela atenção limitada dos usuários significa que algumas ideias se tornam virais, apesar de sua baixa qualidade - mesmo quando as pessoas preferem compartilhar conteúdo de alta qualidade.

    Para evitar ficar sobrecarregado, o cérebro usa vários truques. Esses métodos geralmente são eficazes, mas também pode se tornar preconceito quando aplicado em contextos errados.

    Explicando as ferramentas desenvolvidas no Observatório de Redes Sociais.

    Um atalho cognitivo acontece quando uma pessoa está decidindo se deseja compartilhar uma história que aparece em seu feed de mídia social. As pessoas são muito afetadas pelas conotações emocionais de um título, mesmo que não seja um bom indicador da precisão de um artigo. Muito mais importante é quem escreveu a peça.

    Para combater esse preconceito, e ajudar as pessoas a prestar mais atenção à origem de uma reclamação antes de compartilhá-la, desenvolvemos o Fakey, um jogo de alfabetização de notícias para celular (gratuito no Android e iOS) simulando um feed de notícias de mídia social típico, com uma mistura de artigos de notícias de fontes convencionais e de baixa credibilidade. Os jogadores ganham mais pontos por compartilhar notícias de fontes confiáveis ​​e sinalizar conteúdo suspeito para verificação de fatos. No processo, eles aprendem a reconhecer sinais de credibilidade da fonte, como alegações hiperpartidárias e manchetes carregadas de emoção.

    Viés na sociedade

    Outra fonte de preconceito vem da sociedade. Quando as pessoas se conectam diretamente com seus colegas, os preconceitos sociais que orientam sua seleção de amigos influenciam as informações que eles veem.

    Na verdade, em nossa pesquisa, descobrimos que é possível determinar as inclinações políticas de um usuário do Twitter simplesmente observando as preferências partidárias de seus amigos. Nossa análise da estrutura dessas redes de comunicação partidárias constatou que as redes sociais são particularmente eficientes na disseminação de informações - precisas ou não - quando estão intimamente ligadas e desconectadas de outras partes da sociedade.

    A tendência de avaliar a informação de forma mais favorável se vier de dentro de seus próprios círculos sociais cria "câmaras de eco" que estão prontas para manipulação, seja consciente ou não intencionalmente. Isso ajuda a explicar por que tantas conversas online se transformam em confrontos "nós contra eles".

    Imagens do jogo Fakey. Crédito:Mihai Avram e Filippo Menczer

    Para estudar como a estrutura das redes sociais online torna os usuários vulneráveis ​​à desinformação, nós construímos Hoaxy, um sistema que rastreia e visualiza a disseminação de conteúdo de fontes de baixa credibilidade, e como ele compete com o conteúdo de verificação de fatos. Nossa análise dos dados coletados pela Hoaxy durante as eleições presidenciais dos Estados Unidos de 2016 mostra que as contas do Twitter que compartilhavam informações incorretas foram quase completamente excluídas das correções feitas pelos verificadores de fatos.

    Quando analisamos as contas de disseminação de informações erradas, encontramos um grupo muito denso de contas que retuíam umas às outras quase que exclusivamente - incluindo vários bots. As únicas vezes em que as organizações de verificação de fatos foram citadas ou mencionadas pelos usuários no grupo mal informado foi ao questionar sua legitimidade ou alegar o oposto do que escreveram.

    Viés na máquina

    O terceiro grupo de tendências surge diretamente dos algoritmos usados ​​para determinar o que as pessoas veem online. Tanto as plataformas de mídia social quanto os mecanismos de pesquisa os utilizam. Essas tecnologias de personalização são projetadas para selecionar apenas o conteúdo mais envolvente e relevante para cada usuário individual. Mas ao fazer isso, pode acabar reforçando os preconceitos cognitivos e sociais dos usuários, tornando-os ainda mais vulneráveis ​​à manipulação.

    Por exemplo, as ferramentas de publicidade detalhadas construídas em muitas plataformas de mídia social permitem que os ativistas da desinformação explorem o viés da confirmação, adaptando as mensagens às pessoas que já estão inclinadas a acreditar nelas.

    Também, se um usuário frequentemente clica em links do Facebook de uma fonte de notícias específica, O Facebook tenderá a mostrar a essa pessoa mais do conteúdo do site. Este chamado efeito de "bolha de filtro" pode isolar pessoas de diversas perspectivas, fortalecimento do viés de confirmação.

    Uma captura de tela de uma pesquisa Hoaxy mostra como bots comuns - em vermelho e rosa escuro - estão espalhando uma história falsa no Twitter. Crédito:Hoaxy

    Nossa própria pesquisa mostra que as plataformas de mídia social expõem os usuários a um conjunto menos diverso de fontes do que sites de mídia não social como a Wikipedia. Porque isso está no nível de uma plataforma inteira, não de um único usuário, chamamos isso de viés de homogeneidade.

    Outro ingrediente importante da mídia social são as informações que estão em alta na plataforma, de acordo com o que está obtendo mais cliques. Chamamos isso de viés de popularidade, porque descobrimos que um algoritmo projetado para promover conteúdo popular pode afetar negativamente a qualidade geral das informações na plataforma. Isso também alimenta o viés cognitivo existente, reforçando o que parece ser popular independentemente de sua qualidade.

    Todos esses vieses algorítmicos podem ser manipulados por bots sociais, programas de computador que interagem com humanos por meio de contas de mídia social. A maioria dos bots sociais, como o Big Ben do Twitter, são inofensivos. Contudo, alguns ocultam sua natureza real e são usados ​​para intenções maliciosas, como aumentar a desinformação ou criar falsamente a aparência de um movimento popular, também chamado de "astroturfing". Encontramos evidências desse tipo de manipulação na corrida para as eleições de meio de mandato de 2010 nos EUA.

    Para estudar essas estratégias de manipulação, desenvolvemos uma ferramenta para detectar bots sociais chamada Botometer. O botometer usa aprendizado de máquina para detectar contas de bot, inspecionando milhares de recursos diferentes de contas do Twitter, como os tempos de suas postagens, com que frequência ele tweeta, e as contas que segue e retuíta. Não é perfeito, mas revelou que até 15 por cento das contas do Twitter mostram sinais de serem bots.

    Usando o botômetro em conjunto com Hoaxy, analisamos o núcleo da rede de desinformação durante a campanha presidencial dos EUA de 2016. Encontramos muitos bots explorando tanto o cognitivo, confirmação e vieses de popularidade de suas vítimas e vieses algorítmicos do Twitter.

    Esses bots são capazes de construir bolhas de filtro em torno de usuários vulneráveis, alimentando-os com falsas alegações e desinformação. Primeiro, eles podem atrair a atenção de usuários humanos que apóiam um determinado candidato tweetando as hashtags desse candidato ou mencionando e retuitando a pessoa. Então, os bots podem amplificar alegações falsas difamando os oponentes, retuitando artigos de fontes de baixa credibilidade que correspondam a certas palavras-chave. Essa atividade também faz com que o algoritmo destaque para histórias falsas de outros usuários que estão sendo amplamente compartilhadas.

    Uma captura de tela do site do Botometer, mostrando uma conta humana e uma conta de bot. Crédito:Botômetro

    Compreender vulnerabilidades complexas

    Mesmo com nossa pesquisa, e outros', mostra como os indivíduos, instituições e até sociedades inteiras podem ser manipuladas nas redes sociais, ainda há muitas perguntas a serem respondidas. É especialmente importante descobrir como esses preconceitos diferentes interagem entre si, potencialmente criando vulnerabilidades mais complexas.

    Ferramentas como a nossa oferecem aos usuários da Internet mais informações sobre desinformação, e, portanto, algum grau de proteção contra seus danos. As soluções provavelmente não serão apenas tecnológicas, embora provavelmente haja alguns aspectos técnicos para eles. Mas eles devem levar em consideração os aspectos cognitivos e sociais do problema.

    Nota do editor:este artigo foi atualizado em 10 de janeiro de 2019, para remover um link para um estudo que foi retirado. O texto do artigo ainda é preciso, e permanece inalterado.

    Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.




    © Ciência https://pt.scienceaq.com