p Crédito CC0:domínio público
p Um vídeo na mídia social mostra um legislador de alto escalão dos EUA declarando seu apoio a um aumento esmagador de impostos. Você reage de acordo porque o vídeo se parece com ele e soa como ele, então certamente é ele. p Não necessariamente.
p O termo "notícias falsas" está tomando um rumo muito mais literal, à medida que novas tecnologias tornam mais fácil a manipulação de rostos e áudio em vídeos. Os vídeos, chamado deepfakes, podem então ser postados em qualquer site de mídia social sem nenhuma indicação de que não são reais.
p Edward Delp, diretor do Laboratório de Processamento de Vídeo e Imagem da Purdue University, diz que os deepfakes são um perigo crescente com a aproximação rápida da próxima eleição presidencial.
p "É possível que as pessoas usem vídeos falsos para criar notícias falsas e inseri-los em uma eleição política, "disse Delp, o Distinto Professor Charles William Harrison de Engenharia Elétrica e de Computação. “Já houve algumas evidências disso em outras eleições em todo o mundo.
p "Temos nossa eleição em 2020 e suspeito que as pessoas vão usar isso. As pessoas acreditam nelas e esse será o problema."
p Os vídeos representam um perigo para influenciar o tribunal da opinião pública através das redes sociais, já que quase 70 por cento dos adultos indicam que usam o Facebook, geralmente diariamente. O YouTube possui números ainda maiores, com mais de 90 por cento das pessoas de 18 a 24 anos usando.
p Delp e o estudante de doutorado David Güera trabalharam por dois anos com adulteração de vídeo como parte de uma pesquisa maior em perícia de mídia. Eles trabalharam com técnicas sofisticadas de aprendizado de máquina baseadas em inteligência artificial e aprendizado de máquina para criar um algoritmo que detecta falsificações profundas.
Crédito:Purdue University p No final do ano passado, Delp e o algoritmo de sua equipe ganharam um concurso da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA). DARPA é uma agência do Departamento de Defesa dos EUA.
p “Ao analisar o vídeo, o algoritmo pode ver se o rosto é ou não consistente com o resto das informações no vídeo, "Delp disse." Se for inconsistente, detectamos essas inconsistências sutis. Pode ter apenas alguns pixels, podem ser inconsistências de coloração, pode haver diferentes tipos de distorção. "
p "Nosso sistema é orientado por dados, para que possa procurar por tudo - pode procurar anomalias como piscar, pode procurar anomalias na iluminação, "Güera disse, adicionar o sistema continuará a melhorar a detecção de deepfakes, pois eles fornecem mais exemplos para aprender.
p A pesquisa foi apresentada em novembro na Conferência Internacional IEEE 2018 sobre Vídeo Avançado e Vigilância Baseada em Sinal.
p Deepfakes também podem ser usados para falsificar vídeos e imagens de pornografia, usando rostos de celebridades ou até de crianças.
p Delp disse que os deepfakes iniciais são mais fáceis de detectar. As técnicas não conseguiam recriar bem o movimento dos olhos, resultando em vídeos de uma pessoa que não piscou. Mas os avanços tornaram a tecnologia melhor e mais disponível para as pessoas.
p Organizações de notícias e sites de mídia social se preocupam com o futuro dos deepfakes. Delp prevê ter ferramentas como seu algoritmo no futuro para determinar quais imagens de vídeo são reais e quais são falsas.
p "É uma corrida armamentista, "disse ele." A tecnologia deles está cada vez melhor, mas gosto de pensar que seremos capazes de acompanhar. "