Crédito CC0:domínio público
Seja um vídeo mostrando o rosto de outra pessoa em um corpo diferente ou o ex-presidente Barack Obama dizendo coisas que ele realmente não disse, "deepfakes" agora são uma coisa.
Outro uso popular de tais vídeos manipulados:pornografia falsa, apresentando todos, desde a atriz Scarlett Johansson a possivelmente qualquer pessoa cujas fotos estão disponíveis online.
Johansson, que involuntariamente estrelou um vídeo pornográfico supostamente vazado que o Washington Post afirma ter sido visto mais de 1,5 milhão de vezes em um grande site pornográfico, sente que a situação é desesperadora.
"Nada pode impedir alguém de cortar e colar minha imagem ou a de outra pessoa em um corpo diferente e torná-lo tão assustadoramente realista quanto desejado, "ela disse ao Publicar em uma história publicada há poucos dias. "A Internet é um vasto buraco de minhoca de escuridão que se auto-destrói."
É por isso que os pesquisadores estão trabalhando duro tentando descobrir maneiras de detectar tal falsificação, inclusive na SRI International em Menlo Park.
Manipular vídeos costumava ser coisa de filmes, feito pela Disney, Pixar e outros, disse Bob Bolles, diretor do programa de percepção do centro de IA no SRI. "Agora, os aplicativos de troca de rosto estão cada vez melhores."
Bolles recentemente mostrou como ele e sua equipe estão tentando detectar quando o vídeo foi adulterado.
A equipe procura inconsistências entre o vídeo e a faixa de áudio, por exemplo, observar se os movimentos dos lábios de uma pessoa correspondem aos sons do vídeo. Pense em vídeos que não são tão óbvios quanto os antigos, filmes de kung fu mal dublados.
A equipe também tenta detectar sons que podem não coincidir com o fundo, disse Aaron Lawson, diretor assistente do laboratório de fala do SRI. Por exemplo, o vídeo pode mostrar uma cena do deserto, mas as reverberações podem indicar que o som foi gravado em um ambiente interno.
"Precisamos de um conjunto de testes" para acompanhar os hackers que estão fadados a descobrir novas maneiras de continuar enganando as pessoas, Disse Bolles.
A equipe SRI é apenas uma das muitas organizações, universidades e empresas que trabalham para tentar detectar e até mesmo rastrear deepfakes sob um programa DARPA chamado MediFor, que é a abreviação de media forensics. Matt Turek, diretor do programa MediFor na Agência de Projetos de Pesquisa Avançada de Defesa em Washington, D.C., disse que 14 contratantes principais estão trabalhando no projeto, que foi iniciado no verão de 2016. Esses contratados têm subcontratados trabalhando no MediFor, também.
"Houve uma mudança significativa no último ano, à medida que as manipulações automatizadas se tornaram mais convincentes, ", Disse Turek. A inteligência artificial e o aprendizado de máquina ajudaram a tornar as ferramentas para criar deepfakes mais poderosas, e os pesquisadores estão usando a IA para tentar contra-atacar.
"O desafio é criar algoritmos para se manter atualizado e à frente da tecnologia que está por aí, "Turek disse.
A DARPA espera que os frutos do programa MediFor sejam distribuídos em toda parte, escolhidos por empresas de tecnologia como Facebook e YouTube, que lidam com uma grande fração dos vídeos gerados por usuários em todo o mundo.
Por exemplo, um vídeo publicado no YouTube pelo BuzzFeed em abril passado, apresentando o comediante e ator Jordan Peele ventriloquizando Obama - com o ex-presidente aparentemente chamando o presidente Donald Trump de palavrão - tem mais de 5,3 milhões de visualizações.
Turek assinalou outros usos possíveis para deepfakes, como para deturpar os produtos vendidos online, ou para falsificar seguradoras sobre acidentes de carro. Ele disse que há evidências de pesquisadores usando imagens manipuladas para que suas descobertas científicas possam ser publicadas. E ele prevê que, eventualmente, as ferramentas podem ficar tão boas que uma série de deepfakes será capaz de convencer as pessoas de eventos significativos que não aconteceram - como os teóricos da conspiração.
"Deepfakes pode alterar a forma como confiamos na imagem e no vídeo como sociedade, "Turek disse.
© 2019 The Mercury News (San Jose, Califórnia)
Distribuído pela Tribune Content Agency, LLC.