p Crédito CC0:domínio público
p Polarização, teorias de conspiração, Notícias falsas:o que as pessoas veem na Internet é amplamente determinado pelos algoritmos opacos de apenas algumas empresas. Esse é um desenvolvimento preocupante para as sociedades democráticas. Mas os ambientes online podem ser projetados de forma a promover autonomia e transparência, promovendo assim o potencial positivo da Internet. Uma equipe de pesquisadores do Instituto Max Planck para o Desenvolvimento Humano em Berlim, a Universidade de Bristol, e a Harvard Law School abordou esse debate a partir da perspectiva das ciências comportamentais e propôs intervenções capazes de promover uma Internet mais democrática. Suas descobertas foram publicadas em
Nature Human Behavior . p Você está navegando no seu YouTube, Facebook, ou feed do Twitter quando um vídeo aparece:uma reportagem sobre acordos políticos secretos, conspirações da mídia, ou estudos científicos falsos. Tudo parece estar apoiado em fatos. O vídeo tem centenas de milhares de cliques e parece estar ganhando força em todo o mundo. E muitos espectadores parecem concordar com isso, tendo dado um 'polegar para cima'. Mas o que exatamente tudo isso significa? Isso torna o vídeo confiável? Quantos espectadores assistiram ao vídeo até o fim; quantos deixaram no meio do caminho? E por que o vídeo apareceu em seu feed em primeiro lugar? A plataforma online conhece muitas das respostas, mas não compartilha essa informação. E não são fornecidas outras dicas que possam ajudá-lo a avaliar o conteúdo, qualidade, ou credibilidade do vídeo.
p De acordo com o Reuters Institute Digital News Report 2019, mais da metade (55%) dos usuários da Internet em todo o mundo agora usam mídias sociais ou mecanismos de busca para acompanhar as notícias. Em outras palavras, a opinião pública é formada em grande parte pelo conteúdo online, que, por sua vez, é organizado por algoritmos. "O objetivo é manter os usuários felizes pelo maior tempo possível para que permaneçam na plataforma. Isso é conseguido proporcionando entretenimento e estabelecendo uma sensação de bem-estar - o que provavelmente explica por que muitas plataformas não têm botões de 'não gostar' que permitir que os usuários votem contra o conteúdo. O sentimento transmitido é:Você está certo. Isso pode ser inofensivo quando compartilhamos conteúdo privado, como fotos de férias, mas distorce a imagem quando o que está sendo espalhado são opiniões radicais e inverdades, "diz o co-autor Stephan Lewandowsky, Professor de Psicologia Cognitiva da University of Bristol.
p Outro problema é que os algoritmos de feed de notícias mostram apenas o conteúdo dos usuários baseado em seu comportamento online anterior - com o qual eles provavelmente concordarão. Outros pontos de vista tendem a não ser mostrados. Isso cria redes de usuários com ideias semelhantes, que reforçam as opiniões compartilhadas e criam a ilusão de amplo apoio, mesmo que uma opinião não seja amplamente aceita. Mas como os usuários podem distinguir notícias falsas de fatos? E como os ambientes online precisam ser projetados para apoiar esses esforços? "As intervenções que propomos têm como objetivo capacitar usuários individuais a tomar decisões informadas e autônomas em ambientes online - de preferência, sem ter que confiar em verificadores de fatos independentes. A arquitetura dos ambientes online influencia o comportamento dos usuários. Para mudar esse ambiente para melhor, precisamos entender o comportamento humano e levar esse comportamento em consideração nas escolhas de design, "diz Philipp Lorenz-Spreen, autor principal do estudo e pesquisador do Instituto Max Planck para o Desenvolvimento Humano.
p A equipe de pesquisa identificou várias maneiras de ajudar os usuários a avaliar a qualidade do conteúdo da Internet e a compreender os mecanismos por trás dos algoritmos - sem restringir as liberdades fundamentais para a filosofia original da Internet. Essas possibilidades são tecnologicamente viáveis, mas até agora totalmente inexploradas. A equipe de pesquisa desenvolveu recomendações específicas para capacitar indivíduos online, baseando-se em duas abordagens das ciências comportamentais:cutucar e impulsionar.
p A cutucada visa orientar o comportamento das pessoas, destacando informações importantes sem impor regras ou proibições. O Boosting visa melhorar a competência de tomada de decisão das pessoas, permitindo-lhes navegar pelas situações de forma autônoma e tomar melhores decisões. De acordo com os pesquisadores, é importante adotar uma abordagem multifacetada para alcançar o maior número possível de pessoas. Nudging pode ser usado, por exemplo, para indicar se o conteúdo atende a determinados critérios de qualidade, como se ele provém de fontes confiáveis. Isso faria com que os usuários verificassem o conteúdo por completo e criaria uma estrutura de incentivos para que os produtores de conteúdo atendessem aos critérios exigidos. Incluir hiperlinks para fontes verificadas seria outra etapa. A Wikipedia pode servir de modelo aqui:as referências e referências cruzadas que fornece ajudam a contextualizar as informações apresentadas. O Twitter recentemente deu um passo nessa direção e começou a sinalizar alguns tweets com um aviso de checagem de fatos - incluindo um tweet de Donald Trump sobre o assunto da votação por correspondência.
p Sugestões também podem comunicar informações adicionais sobre o comportamento online de outros usuários, dando mais contexto sobre como outros avaliam o conteúdo. Por exemplo, o número de curtidas pode ser definido em relação ao número total de leitores:"4, 287 de 1,5 milhão de leitores gostaram deste artigo. "A informação de que havia 44, 000 cliques em um artigo, mas que apenas 3, 000 usuários leram até o fim pode ser um melhor indicador de qualidade do que apenas o número de cliques e curtidas. Foi demonstrado que formatos numéricos transparentes podem melhorar as decisões médicas. Por que o mesmo não se aplica à Internet? Essa abordagem pode evitar a formação de câmaras de eco nas quais grupos de pessoas acreditam erroneamente que sua opinião é difundida e aceita.
p Outra possibilidade pode ser tornar um pouco mais difícil para os usuários compartilhar informações quando um artigo não cita referências externas. Por exemplo, os usuários podem ser solicitados a clicar em uma janela pop-up que contém um aviso de que estão faltando referências. Outro tipo de cutucada pode direcionar como o conteúdo é organizado nos navegadores, ou seja, a forma como um feed de notícias classifica o conteúdo. Diferenciando claramente os tipos de conteúdo, como opiniões, notícia, ou postagens de amigos, pode tornar os feeds de notícias mais transparentes.
p Boosting, em contraste, visa aprimorar a competência do usuário a longo prazo. Isso poderia, por exemplo, significa permitir que as pessoas ajustem a forma como seus feeds de notícias são classificados - permitindo que alterem suas configurações para refletir quais fatores são mais importantes para elas e qual conteúdo desejam ver primeiro. As redes sociais podem ser obrigadas a indicar por que algum conteúdo é mais pesado e mostrado primeiro, enquanto outro conteúdo recebe prioridade mais baixa. Outro exemplo de aumento seria apresentar a fonte original de uma informação e a rota pela qual ela chegou ao usuário. Árvores de decisão simples podem guiar os usuários por um processo passo a passo de verificação da origem, contexto, e qualidade do conteúdo online. Em outras palavras, os usuários receberiam as ferramentas para se tornarem verificadores de fatos. A longo prazo, eles aprenderiam a reconhecer padrões, para avaliar criticamente o conteúdo, e para identificar a manipulação mais rapidamente.
p "A natureza interativa da mídia social pode ser aproveitada para promover diálogos democráticos diversificados e fomentar a inteligência coletiva. Nosso objetivo é encontrar maneiras de fortalecer o potencial da Internet para informar os processos de tomada de decisão em sociedades democráticas, amparando-os em vez de miná-los. Problemas globais como mudanças climáticas e a pandemia de coronavírus requerem coordenação, soluções coletivas. E isso torna crucial um mundo online interconectado democraticamente, "diz Ralph Hertwig, Diretor do Center for Adaptive Rationality do Max Planck Institute for Human Development.