Deepfakes tornam mais difícil para nós comunicarmos verdades uns aos outros e chegarmos a um consenso sobre o que é real. Captura de tela
O recente vídeo viral "deepfake" de Mark Zuckerberg declarando, "quem controla os dados controla o mundo" não era uma imitação particularmente convincente do CEO do Facebook, mas teve um sucesso espetacular em chamar a atenção para a ameaça de manipulação da mídia digital.
Embora as falsificações fotográficas existam desde o início da fotografia, o uso mais recente de técnicas de inteligência artificial de aprendizado profundo (o "deep" em deepfakes) está levando à criação de simulações de computador cada vez mais confiáveis.
O vídeo de Zuckerberg atraiu a atenção online porque apresentava o prodígio da tecnologia que é parcialmente responsável por inundar o mundo com notícias falsas, e porque destacou a tecnologia que certamente agravará o problema.
"Falsos positivos" não são o único problema
Vimos a dor e a tragédia que as falsidades virais podem causar, do assédio de pais que perderam filhos no tiroteio de Sandy Hook, a assassinatos de multidões na Índia e em outros lugares.
Deepfakes, nos preocupamos, só vai piorar o problema. E se eles forem usados para falsamente implicar alguém em um assassinato? Para fornecer ordens falsas às tropas no campo de batalha? Ou para incitar o conflito armado?
Podemos descrever esses eventos como os "falsos positivos" da falsificação profunda:eventos que pareciam acontecer, mas não o fez. Por outro lado, existem os "falsos negativos":eventos que aconteceram, mas que correm o risco de serem descartados como apenas mais uma farsa.
Pense na afirmação do presidente dos EUA, Donald Trump, de que a voz na notória fita do Access Hollywood, em que ele se gaba de apalpar mulheres, não era dele mesmo. Trump tornou uma especialidade política pedir às pessoas que não acreditassem em seus olhos ou ouvidos. Ele enganou as pessoas sobre o tamanho do público em sua inauguração, e disse que não chamou Meghan Markle de "desagradável" em uma entrevista quando o fez.
Essa estratégia funciona questionando toda e qualquer evidência mediada. Isso é, qualquer coisa que não experimentamos diretamente por nós mesmos, e até mesmo muito do que fazemos na medida em que não é compartilhado por outros.
O que está em questão é nossa capacidade de comunicar verdades uns aos outros e de gerar um consenso em torno delas. Essas apostas são altas, de fato, já que a democracia depende da eficácia de falar a verdade ao poder. Se, Como O guardião colocá-lo, "deepfakes são onde a verdade morre, "então eles ameaçam levar a responsabilidade pública com eles.
Maior vigilância não é a resposta
Porque o problema parece ser tecnológico, é tentador buscar a tecnologia, ao invés de social ou político, soluções. Tipicamente, essas soluções propostas assumem a forma de verificação aprimorada, o que implica uma vigilância cada vez mais abrangente.
Uma ideia é fazer com que cada câmera marque as imagens automaticamente com uma assinatura digital exclusiva. Isso permitiria que as imagens fossem rastreadas até o dispositivo que as levou, e, no caso de dispositivos em rede, para seu usuário ou proprietário. Um comentarista descreveu isso como "o sonho de um estado de vigilância".
Ou podemos imaginar um mundo em que o ambiente construído é permeado por várias câmeras, constantemente capturando e construindo uma realidade "compartilhada" que pode ser usada para desmascarar vídeos falsos à medida que surgem. Este não seria apenas o sonho de um estado de vigilância, mas sua fantasia realizada.
O fato de que tais soluções não são apenas distópicas, mas também não conseguem resolver o problema de forma eficaz (uma vez que as assinaturas podem ser falsificadas, e a versão "oficial" da realidade pode ser descartada como mais uma farsa), não nos torna menos propensos a persegui-los.
A falha adicional de tais soluções é que elas presumem que as pessoas e plataformas que circulam informações falsas aceitarão a verdade quando confrontados com ela.
As pessoas acreditam no que querem acreditar
Conhecemos plataformas de mídia social, até que sejam responsabilizados por verificar as informações que circulam, tem um incentivo para promover o que quer que chame mais atenção, independentemente de sua autenticidade. Relutamos mais em admitir que o mesmo se aplica às pessoas.
Na economia da atenção online, não são apenas as plataformas que se beneficiam da circulação de desinformação sensacional, são também as pessoas que os usam.
Considere o caso do jornalista islâmico Hussein Kesvani, residente em Londres. Kesvani relata a vez em que rastreou um troll do Twitter chamado "True Brit", que o enchia de comentários islamofóbicos e memes. Depois de estabelecer uma conversa online regular com seu antagonista online, Kesvani conseguiu uma entrevista cara a cara com ele.
Ele perguntou a True Brit por que ele estava disposto a divulgar fatos comprovadamente falsos, reivindicações, e imagens com rótulos errados e enganosos. O verdadeiro britânico ignorou a questão, dizendo, "Você não sabe o que é verdade ou não hoje em dia, de qualquer maneira. "Ele não se importava com a verdade literal, apenas sobre a verdade emocional "mais profunda" das imagens, o que ele sentiu confirmou seus preconceitos.
Estratégias de verificação podem ser úteis para impulsionar a sociedade de vigilância, mas eles terão pouca vantagem sobre os verdadeiros britânicos do mundo que estão dispostos a abraçar e divulgar deepfakes porque acreditam que suas mentiras contêm verdades mais profundas. O problema não está apenas na tecnologia, mas na versão degradada da vida cívica em que as plataformas de mídia social prosperam.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.