Crédito:Pixabay/CC0 Public Domain
As redes sociais representam um importante canal para a disseminação de notícias falsas e desinformação. Essa situação se agravou com os recentes avanços nas ferramentas de edição de fotos e vídeos e de inteligência artificial, que facilitam a manipulação de arquivos audiovisuais, como os chamados deepfakes, que combinam e sobrepõem imagens, áudios e videoclipes para criar montagens que parecem filmagens reais.
Pesquisadores dos grupos K-riptography and Information Security for Open Networks (KISON) e Communication Networks &Social Change (CNSC) do Internet Interdisciplinary Institute (IN3) da Universitat Oberta de Catalunya (UOC) lançaram um novo projeto para desenvolver tecnologia inovadora que, utilizando inteligência artificial e técnicas de ocultação de dados, deverá ajudar os utilizadores a diferenciar automaticamente entre conteúdos multimédia originais e adulterados, contribuindo assim para minimizar a repostagem de notícias falsas. DISSIMILAR é uma iniciativa internacional liderada pela UOC, incluindo pesquisadores da Universidade de Tecnologia de Varsóvia (Polônia) e da Universidade de Okayama (Japão).
"O projeto tem dois objetivos:primeiro, fornecer aos criadores de conteúdo ferramentas para marcar suas criações, tornando assim qualquer modificação facilmente detectável; e segundo, oferecer aos usuários de mídia social ferramentas baseadas em processamento de sinal de última geração e métodos de aprendizado de máquina para detectar falsificações conteúdo digital", explicou o professor David Megias, pesquisador principal do KISON e diretor do IN3. Além disso, DISSIMILAR pretende incluir “a dimensão cultural e o ponto de vista do utilizador final ao longo de todo o projeto”, desde o desenho das ferramentas até ao estudo da usabilidade nas diferentes fases.
O perigo dos preconceitos Atualmente, existem basicamente dois tipos de ferramentas para detectar notícias falsas. Em primeiro lugar, existem os automáticos baseados em aprendizado de máquina, dos quais (atualmente) existem apenas alguns protótipos. E, em segundo lugar, há as plataformas de detecção de fake news com envolvimento humano, como é o caso do Facebook e do Twitter, que exigem a participação de pessoas para verificar se determinado conteúdo é genuíno ou falso. De acordo com David Megias, essa solução centralizada pode ser afetada por “diferentes preconceitos” e estimular a censura. “Acreditamos que uma avaliação objetiva baseada em ferramentas tecnológicas pode ser a melhor opção, desde que os usuários tenham a última palavra para decidir, com base em uma pré-avaliação, se podem confiar ou não em determinado conteúdo”, explicou.
Para Megias, não existe uma "bala de prata única" que possa detectar notícias falsas:em vez disso, a detecção precisa ser realizada com uma combinação de diferentes ferramentas. "É por isso que optamos por explorar a ocultação de informações (marcas d'água), técnicas de análise forense de conteúdo digital (em grande parte baseadas no processamento de sinais) e, é claro, aprendizado de máquina", observou ele.
Verificando automaticamente os arquivos multimídia A marca d'água digital compreende uma série de técnicas no campo da ocultação de dados que incorporam informações imperceptíveis no arquivo original para poder verificar "fácil e automaticamente" um arquivo multimídia. "Ele pode ser usado para indicar a legitimidade de um conteúdo, por exemplo, confirmando que um vídeo ou foto foi distribuído por uma agência de notícias oficial, e também pode ser usado como marca de autenticação, que seria excluída no caso de modificação de o conteúdo, ou rastrear a origem dos dados. Em outras palavras, pode dizer se a fonte da informação (por exemplo, uma conta do Twitter) está divulgando conteúdo falso", explicou Megias.
Técnicas de análise forense de conteúdo digital O projeto combinará o desenvolvimento de marcas d'água com a aplicação de técnicas de análise forense de conteúdo digital. O objetivo é aproveitar a tecnologia de processamento de sinal para detectar as distorções intrínsecas produzidas pelos dispositivos e programas utilizados na criação ou modificação de qualquer arquivo audiovisual. Esses processos dão origem a uma série de alterações, como ruído do sensor ou distorção óptica, que podem ser detectadas por meio de modelos de aprendizado de máquina. "A ideia é que a combinação de todas essas ferramentas melhore os resultados quando comparado ao uso de soluções únicas", afirmou Megias.
Estudos com usuários na Catalunha, Polônia e Japão Uma das principais características do DISSIMILAR é sua abordagem "holística" e a reunião das "percepções e componentes culturais em torno das notícias falsas". Com isso em mente, serão realizados diferentes estudos focados no usuário, divididos em diferentes etapas. “Primeiro, queremos descobrir como os usuários interagem com as notícias, o que os interessam, quais mídias consomem, dependendo de seus interesses, o que usam como base para identificar determinado conteúdo como notícias falsas e o que estão preparados para fazer para Verifique sua veracidade. Se conseguirmos identificar essas coisas, será mais fácil para as ferramentas tecnológicas que projetamos para ajudar a evitar a propagação de notícias falsas", explicou Megias.
Essas percepções serão aferidas em diferentes lugares e contextos culturais, em estudos de grupos de usuários na Catalunha, Polônia e Japão, de modo a incorporar suas idiossincrasias no desenho das soluções. “Isso é importante porque, por exemplo, cada país tem governos e/ou autoridades públicas com maior ou menor grau de credibilidade. das autoridades, por que devo prestar atenção às notícias provenientes dessas fontes? Isso pôde ser visto durante a crise do COVID-19:em países em que havia menos confiança nas autoridades públicas, havia menos respeito às sugestões e regras sobre o manejo da pandemia e a vacinação", disse Andrea Rosales, pesquisadora do CNSC.
Um produto fácil de usar e entender Na segunda etapa, os usuários participarão do projeto da ferramenta para "garantir que o produto seja bem recebido, fácil de usar e compreensível", disse Andrea Rosales. “Gostaríamos que eles estivessem envolvidos conosco durante todo o processo até que o protótipo final seja produzido, pois isso nos ajudará a dar uma melhor resposta às suas necessidades e prioridades e fazer o que outras soluções não conseguiram”, acrescentou David Megias.
Esta aceitação dos utilizadores poderá, no futuro, ser um fator que leva as plataformas de redes sociais a incluir as soluções desenvolvidas neste projeto. "Se nossos experimentos derem frutos, seria ótimo se eles integrassem essas tecnologias. Por enquanto, ficaríamos felizes com um protótipo funcional e uma prova de conceito que poderia incentivar as plataformas de mídia social a incluir essas tecnologias no futuro, " concluiu David Megias.
Pesquisas anteriores foram publicadas na
Edição Especial sobre o ARES-Workshops 2021 .