Algumas semanas atrás, A instituição de caridade francesa Solidarité Sida causou sensação ao publicar um vídeo falso, mas altamente realista, de Donald Trump proclamando que "a AIDS acabou" como parte de uma campanha de conscientização. O vídeo em questão é conhecido como deepfake, uma técnica que envolve o uso de aprendizado de máquina para fabricar imagens e vídeos cada vez mais realistas, bem como arquivos de áudio e texto.
O uso de um vídeo falso por uma instituição de caridade destaca a crescente prevalência desse fenômeno. Embora a pornografia atualmente responda pela grande maioria dos vídeos deepfake, a técnica também pode ser usada para fraudar, para difamar, para espalhar notícias falsas ou para roubar a identidade de alguém.
Ameaças em evolução
Em setembro, O International Risk Governance Center (IRGC) da EPFL reuniu cerca de 30 especialistas em um seminário interdisciplinar para discutir esse fenômeno em rápida evolução e sua crescente prevalência. O IRGC publicou hoje um relatório contendo informações valiosas sobre os riscos associados aos deepfakes.
A observação principal é que esses riscos podem causar danos generalizados em muitas áreas da vida. "Qualquer organização ou atividade empresarial que dependa de evidências documentais é potencialmente vulnerável, "diz Aengus Collins, o autor do relatório e vice-diretor do IRGC. Deepfakes podem causar muita incerteza e confusão. Em um caso recente, ladrões usaram o áudio falsificado da voz de um executivo-chefe para roubar dinheiro de uma empresa. Em uma escala de toda a sociedade, uma proliferação de conteúdo fabricado pode minar a verdade e minar a confiança do público, as próprias pedras angulares do debate democrático.
O relatório fornece uma estrutura para categorizar riscos deepfake. Ele destaca três impactos principais - danos à reputação, fraude e extorsão, e a manipulação dos processos de tomada de decisão - e observa que esses impactos podem ser sentidos individualmente, institucionalmente ou em toda a sociedade.
Com uma gama tão ampla de danos potenciais de deepfakes, onde as respostas de governança de risco são mais necessárias? Os especialistas recomendam focar na escala e gravidade do dano potencial, bem como a capacidade do "alvo" de lidar com a precipitação radioativa. Por exemplo, uma empresa com bons recursos e processos estabelecidos será mais capaz de absorver o impacto de um ataque profundo do que uma vítima privada de assédio.
Soluções interdependentes
No relatório, o IRGC estabelece 15 recomendações que abrangem uma variedade de respostas potenciais a deepfakes que podem mitigar os riscos que apresentam. Também exige uma pesquisa mais profunda em toda a linha.
Uma das principais categorias de recomendação é a tecnologia, incluindo ferramentas que podem verificar a procedência do conteúdo digital ou detectar deepfakes. Na EPFL, o Multimedia Signal Processing Group (MMSPG) e a startup Quantum Integrity estão atualmente desenvolvendo uma solução de detecção de deepfake que pode ser implantada em 2020. "Para qualquer conjunto de defesas, haverá vulnerabilidades que podem ser exploradas, "Collins diz." Mas manter e desenvolver respostas tecnológicas para deepfakes é crucial para dissuadir a maioria dos abusos. "
O relatório também destaca a necessidade de um maior foco no status legal dos deepfakes, para esclarecer como as leis em áreas como difamação, assédio e direitos autorais se aplicam ao conteúdo sintético.
De forma geral, a alfabetização digital tem um papel importante a desempenhar. Mas Collins adverte que há um paradoxo aqui:"Um dos objetivos da alfabetização digital nesta área é encorajar as pessoas a não aceitarem o conteúdo digital pelo seu valor nominal. Mas também precisa haver um foco positivo em coisas como corroboração e avaliação de fontes. Caso contrário, encorajar as pessoas a desconfiar de tudo o que vêem corre o risco de agravar os problemas relacionados com a erosão da verdade e da confiança. "
Horizontes mais amplos
Embora o relatório do IRGC se concentre na governança de risco deepfake, esta pesquisa faz parte de um fluxo de trabalho mais amplo sobre os riscos associados às tecnologias emergentes e convergentes, que continuará em 2020. "No momento, estamos decidindo qual será nosso próximo foco, "diz Collins." E não há falta de candidatos. Vivemos em uma época em que a relação entre tecnologia, o risco e as políticas públicas são mais importantes do que nunca. "