• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    YouTube:como uma equipe de cientistas trabalhou para vacinar um milhão de usuários contra desinformação

    Capturas de tela de um dos vídeos.

    Da pandemia do COVID-19 à guerra na Ucrânia, a desinformação é abundante em todo o mundo. Muitas ferramentas foram projetadas para ajudar as pessoas a identificar desinformação. O problema com a maioria deles é o quão difícil eles são de entregar em escala.
    Mas podemos ter encontrado uma solução. Em nosso novo estudo, projetamos e testamos cinco vídeos curtos que "prejudicam" os espectadores, a fim de inocentá-los das técnicas enganosas e manipuladoras frequentemente usadas on-line para enganar as pessoas. Nosso estudo é o maior do gênero e o primeiro a testar esse tipo de intervenção no YouTube. Cinco milhões de pessoas viram os vídeos, dos quais um milhão os assistiu.

    Descobrimos que esses vídeos não apenas ajudam as pessoas a identificar desinformação em experimentos controlados, mas também no mundo real. Assistir a um de nossos vídeos por meio de um anúncio do YouTube aumentou a capacidade dos usuários do YouTube de reconhecer informações erradas.

    Ao contrário de desmascarar, desmascarar (ou checar fatos) a desinformação tem vários problemas. Muitas vezes é difícil estabelecer qual é a verdade. As verificações de fatos também frequentemente não alcançam as pessoas mais propensas a acreditar na desinformação, e fazer com que as pessoas aceitem as verificações de fatos pode ser um desafio, especialmente se as pessoas tiverem uma forte identidade política.

    Estudos mostram que a publicação de verificações de fatos on-line não reverte totalmente os efeitos da desinformação, um fenômeno conhecido como efeito de influência contínua. Até agora, os pesquisadores lutaram para encontrar uma solução que possa alcançar rapidamente milhões de pessoas.

    A grande ideia

    A teoria da inoculação é a noção de que você pode forjar resistência psicológica contra tentativas de manipulá-lo, assim como uma vacina médica é uma versão enfraquecida de um patógeno que leva seu sistema imunológico a criar anticorpos. As intervenções prebunking são baseadas principalmente nessa teoria.

    A maioria dos modelos se concentrou em neutralizar exemplos individuais de desinformação, como postagens sobre mudanças climáticas. No entanto, nos últimos anos, pesquisadores, incluindo nós mesmos, exploraram maneiras de inocular as pessoas contra as técnicas e os tropos subjacentes a grande parte da desinformação que vemos online. Essas técnicas incluem o uso de linguagem emotiva para desencadear indignação e medo, ou a criação de bodes expiatórios de pessoas e grupos para um problema sobre o qual eles têm pouco ou nenhum controle.

    Jogos online como Cranky Uncle e Bad News estavam entre as primeiras tentativas de tentar esse método de prebunking. Existem várias vantagens nessa aproximação. Você não precisa agir como árbitro da verdade, pois não precisa verificar as alegações específicas que vê online. Ele permite que você evite discussões emotivas sobre a credibilidade das fontes de notícias. E talvez o mais importante, você não precisa saber qual pedaço de desinformação se tornará viral em seguida.

    Uma abordagem escalável

    Mas nem todo mundo tem tempo ou motivação para jogar, então colaboramos com a Jigsaw (unidade de pesquisa do Google) em uma solução para alcançar mais pessoas. Nossa equipe desenvolveu cinco vídeos prebunking, cada um com duração inferior a dois minutos, com o objetivo de imunizar os espectadores contra uma técnica de manipulação diferente ou falácia lógica. Como parte do projeto, lançamos um site onde as pessoas podem assistir e baixar esses vídeos.

    Primeiro testamos seu impacto no laboratório. Realizamos seis experimentos (com cerca de 6.400 participantes no total) nos quais as pessoas assistiram a um de nossos vídeos ou a um vídeo de controle não relacionado sobre queima de freezer. Depois, dentro de 24 horas após a visualização do vídeo, eles foram solicitados a avaliar uma série de exemplos de conteúdo de mídia social (não publicados) que fizeram ou não usaram técnicas de desinformação. Descobrimos que as pessoas que viram nossos vídeos prebunking eram significativamente menos suscetíveis à manipulação do que os participantes do controle.

    Mas as descobertas dos estudos de laboratório não se traduzem necessariamente no mundo real. Por isso, também realizamos um estudo de campo no YouTube, o segundo site mais visitado do mundo (de propriedade do Google), para testar a eficácia das intervenções de vídeo lá.

    Um exemplo de postagem de mídia social (que usamos como um dos estímulos em nosso estudo) que faz uso de uma falsa dicotomia (ou falso dilema), uma técnica de manipulação comumente usada.

    Para este estudo, nos concentramos em usuários do YouTube dos EUA com mais de 18 anos que já haviam assistido a conteúdo político na plataforma. Fizemos uma campanha publicitária com dois de nossos vídeos, mostrando-os para cerca de 1 milhão de usuários do YouTube. Em seguida, usamos a ferramenta de engajamento BrandLift do YouTube para pedir às pessoas que viram um vídeo prebunking que respondessem a uma pergunta de múltipla escolha. A questão avaliou sua capacidade de identificar uma técnica de manipulação em uma manchete de notícia. Também tivemos um grupo de controle, que respondeu à mesma pergunta da pesquisa, mas não viu o vídeo prebunking. Descobrimos que o grupo de prebunking foi de 5 a 10% melhor do que o grupo de controle na identificação correta de informações erradas, mostrando que essa abordagem melhora a resiliência mesmo em um ambiente de distração como o YouTube.

    Nossos vídeos custariam menos de 4p por visualização de vídeo (isso cobriria as taxas de publicidade do YouTube). Como resultado desse estudo, o Google fará uma campanha publicitária usando vídeos semelhantes em setembro de 2022. Essa campanha será realizada na Polônia e na República Tcheca para combater a desinformação sobre refugiados no contexto da guerra Rússia-Ucrânia.

    Quando você está tentando construir resiliência, é útil evitar ser muito direto ao dizer às pessoas em que acreditar, porque isso pode desencadear algo chamado reatância psicológica. Reatância significa que as pessoas sentem que sua liberdade de tomar decisões está sendo ameaçada, levando-as a se empenhar e rejeitar novas informações. A teoria da inoculação é sobre capacitar as pessoas a tomar suas próprias decisões sobre o que acreditar.

    Às vezes, a disseminação de teorias da conspiração e informações falsas online pode ser esmagadora. Mas nosso estudo mostrou que é possível virar a maré. Quanto mais as plataformas de mídia social trabalharem em conjunto com cientistas independentes para projetar, testar e implementar soluções escaláveis ​​e baseadas em evidências, maiores serão nossas chances de tornar a sociedade imune ao ataque de desinformação. + Explorar mais

    Experiência no YouTube revela potencial para 'inocular' milhões de usuários contra desinformação


    Este artigo é republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.



    © Ciência https://pt.scienceaq.com