Sozinho, o julgamento humano pode ser subjetivo e inclinado para preconceitos pessoais.
As informações que encontramos online todos os dias podem ser enganosas, incompleto ou fabricado.
Ser exposto a "notícias falsas" em plataformas de mídia social como Facebook e Twitter pode influenciar nossos pensamentos e decisões. Já vimos desinformação interferir nas eleições nos Estados Unidos.
O fundador do Facebook, Mark Zuckerberg, propôs repetidamente a inteligência artificial (IA) como solução para o dilema das notícias falsas.
Contudo, o problema provavelmente requer altos níveis de envolvimento humano, como muitos especialistas concordam que as tecnologias de IA precisam de mais avanços.
Eu e dois colegas recebemos financiamento do Facebook para realizar pesquisas independentes sobre uma abordagem de IA "humana no circuito" que pode ajudar a preencher a lacuna.
Human-in-the-loop refere-se ao envolvimento de humanos (usuários ou moderadores) para apoiar a IA na realização de seu trabalho. Por exemplo, criando dados de treinamento ou validando manualmente as decisões tomadas pela IA.
Nossa abordagem combina a capacidade da IA de processar grandes quantidades de dados com a capacidade humana de entender o conteúdo digital. Esta é uma solução direcionada para notícias falsas no Facebook, dada a sua escala massiva e interpretação subjetiva.
O conjunto de dados que estamos compilando pode ser usado para treinar IA. Mas também queremos que todos os usuários de mídia social estejam mais cientes de seus próprios preconceitos, quando se trata do que eles chamam de notícias falsas.
Os humanos têm preconceitos, mas também conhecimento único
Para erradicar notícias falsas, pedir aos funcionários do Facebook que tomem decisões editoriais controversas é problemático, como nossa pesquisa descobriu. Isso ocorre porque a forma como as pessoas percebem o conteúdo depende de sua formação cultural, idéias políticas, preconceitos, e estereótipos.
O Facebook empregou milhares de pessoas para moderação de conteúdo. Esses moderadores passam de oito a dez horas por dia olhando para material explícito e violento, como pornografia, terrorismo, e decapitações, para decidir qual conteúdo é aceitável para os usuários verem.
Considere-os zeladores cibernéticos que limpam nossas redes sociais removendo conteúdo impróprio. Eles desempenham um papel fundamental na formação daquilo com que interagimos.
Uma abordagem semelhante pode ser adaptada para notícias falsas, perguntando aos moderadores do Facebook quais artigos devem ser removidos e quais devem ser permitidos.
Os sistemas de IA podem fazer isso automaticamente em grande escala, aprendendo o que são notícias falsas a partir de exemplos anotados manualmente. Mas mesmo quando a IA pode detectar conteúdo "proibido", moderadores humanos são necessários para sinalizar conteúdo controverso ou subjetivo.
Um exemplo famoso é a imagem da Garota Napalm.
A fotografia ganhadora do Prêmio Pulitzer mostra crianças e soldados escapando de uma explosão de bomba napalm durante a Guerra do Vietnã. A imagem foi postada no Facebook em 2016 e removida porque mostrava uma menina nua de nove anos, violando os padrões oficiais da comunidade do Facebook.
Seguiu-se um protesto significativo da comunidade, como a imagem icônica tinha um valor histórico óbvio, e o Facebook permitiu a foto de volta em sua plataforma.
Usando o melhor dos cérebros e bots
No contexto de verificação de informações, o julgamento humano pode ser subjetivo e distorcido com base no histórico de uma pessoa e no preconceito implícito.
Em nossa pesquisa, pretendemos coletar vários "rótulos verdadeiros" para o mesmo item de notícias de alguns milhares de moderadores. Esses rótulos indicam o nível de "falsidade" de um artigo de notícias.
Em vez de simplesmente coletar os rótulos mais populares, também queremos registrar o histórico dos moderadores e seus julgamentos específicos para rastrear e explicar a ambigüidade e a controvérsia nas respostas.
Vamos compilar os resultados para gerar um conjunto de dados de alta qualidade, o que pode nos ajudar a explicar casos com altos níveis de discordância entre moderadores.
Atualmente, O conteúdo do Facebook é tratado como binário - ou está em conformidade com os padrões ou não.
O conjunto de dados que compilamos pode ser usado para treinar IA para identificar melhor notícias falsas, ensinando quais notícias são controversas e quais notícias são simplesmente falsas. Os dados também podem ajudar a avaliar a eficácia da IA atual na detecção de notícias falsas.
Poder para as pessoas
Embora os benchmarks para avaliar os sistemas de IA que podem detectar notícias falsas sejam significativos, queremos dar um passo adiante.
Em vez de apenas pedir que a IA ou especialistas tomem decisões sobre quais notícias são falsas, devemos ensinar aos usuários de mídia social como identificar esses itens por si próprios. Acreditamos que uma abordagem que visa promover a literacia da credibilidade da informação é possível.
Em nossa pesquisa contínua, estamos coletando uma vasta gama de respostas de usuários para identificar conteúdos de notícias confiáveis.
Embora isso possa nos ajudar a construir programas de treinamento de IA, também nos permite estudar o desenvolvimento das habilidades de moderador humano no reconhecimento de conteúdo confiável, enquanto executam tarefas de identificação de notícias falsas.
Assim, nossa pesquisa pode ajudar a projetar tarefas ou jogos online destinados a treinar usuários de mídia social para reconhecer informações confiáveis.
Outras avenidas
A questão das notícias falsas está sendo abordada de diferentes maneiras nas plataformas online.
Muitas vezes, é removido por meio de uma abordagem de baixo para cima, onde os usuários relatam conteúdo impróprio, que é então revisado e removido pelos funcionários da plataforma.
A abordagem que o Facebook está adotando é rebaixar o conteúdo não confiável, em vez de removê-lo.
Em cada caso, a necessidade de as pessoas tomarem decisões sobre a adequação do conteúdo permanece. O trabalho dos usuários e moderadores é crucial, como humanos são necessários para interpretar as diretrizes e decidir sobre o valor do conteúdo digital, especialmente se for controverso.
Ao fazer isso, eles devem tentar olhar além das diferenças culturais, preconceitos e fronteiras.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.