Esperar, esse vídeo é real? A corrida contra os deepfakes e os perigos das gravações manipuladas
p Crédito CC0:domínio público
p Costumava levar muito tempo e conhecimento para falsificar vídeos de forma realista. Não mais. p Por décadas, renderizações de vídeo com aparência autêntica só eram vistas em filmes de ficção científica de grande orçamento como "Guerra nas Estrelas". Contudo, graças ao aumento da inteligência artificial, as filmagens de adulteração tornaram-se mais acessíveis do que nunca, que os pesquisadores dizem que representa uma ameaça à segurança nacional.
p "Até recentemente, podemos confiar em gravações de áudio (e) vídeo, "disse Hany Farid, professor de ciência da computação no Dartmouth College. Ele disse que os avanços no aprendizado de máquina democratizaram o acesso a ferramentas para a criação de áudio e vídeo falsos sofisticados e atraentes.
p "Não é preciso um esforço de imaginação para ver como isso pode ser transformado em arma para interferir nas eleições, para semear agitação civil ou para perpetrar fraude, "Farid disse.
p Com a eleição presidencial de 2020 se aproximando e a agência de defesa dos EUA preocupada com vídeos adulterados que enganam os eleitores, legisladores e instituições educacionais estão correndo para desenvolver software que possa detectar e impedir o que é conhecido como deepfakes antes mesmo de chegarem à Internet.
p
Deepfakes
p Grande preocupação em torno da ideia de que as falsificações de vídeos começaram a ganhar as manchetes no final de 2017, quando um software de computador foi usado para sobrepor celebridades à pornografia usando um software de computador.
p Um dos exemplos mais conhecidos foi criado pela produtora do diretor Jordan Peele em 2018. O vídeo mostra o ex-presidente Barack Obama alertando as pessoas para não acreditarem em tudo o que veem na internet.
p Contudo, não é realmente Obama falando. É Peele ventriloquizando o ex-presidente.
p Aviso:o vídeo abaixo inclui linguagem grosseira para mostrar seu ponto de vista e pode não ser adequado para jovens espectadores.
p Desde então, o Departamento de Defesa, por meio da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA), começou a desenvolver maneiras de detectar quando um vídeo é falso.
p Um porta-voz da agência disse em março que, embora muitas manipulações de vídeo sejam realizadas para diversão, outros são muito mais perigosos, pois podem ser usados para espalhar propaganda e desinformação.
p A organização busca desenvolver sinalizadores e filtros online que impeçam o upload de conteúdo manipulado para a internet.
p Leva apenas cerca de 500 imagens ou 10 segundos de vídeo para criar um deepfake realista, de acordo com Siwei Lyu, um pesquisador que está trabalhando com o Departamento de Defesa para desenvolver software para detectar e prevenir a propagação de deepfakes.
p Lyu disse que qualquer pessoa que poste fotos em sites de redes sociais como o Instagram corre o risco de ser enganado.
p
Soluções de software
p O primeiro software que Lyu e sua equipe de pesquisadores da Universidade de Albany apresentaram no ano passado conseguiram detectar um vídeo falso em um piscar de olhos, literalmente, analisando a frequência com que os rostos simulados piscam - ou não.
p "Descobrimos que os assuntos (em vídeos deepfake) não piscam muito, e às vezes nem um pouco, "Lyu disse." Nós então perguntamos por que isso acontecia. "
p Os pesquisadores descobriram que o software usado para fazer deepfakes geralmente depende de fotos disponíveis na internet. Não existem muitas fotos disponíveis de pessoas importantes com os olhos fechados, para que os temas animados nos vídeos falsos não pisquem, Lyu disse.
p À medida que os criadores de deepfakes começaram a ficar sabendo do novo software, os pesquisadores desenvolveram outros métodos para detectar deepfakes, como o uso de algoritmos que detectam movimentos não naturais entre rostos e cabeças, bem como software que analisa as imagens quanto à perda de detalhes sutis.
p "A pele do rosto profundamente falsa tende a ser excessivamente lisa, e alguns detalhes do cabelo e dos dentes serão perdidos, "Lyu disse." Se você olhar os dentes mais de perto, eles se parecem mais com um bloco branco inteiro, em vez de dentes individuais. "
p Pesquisadores da Universidade de Washington também estão experimentando tecnologia deepfake. A escola descobriu como transformar clipes de áudio em um vídeo sincronizado com os lábios da pessoa falando essas palavras em 2017.
p
Criminalização
p No final do ano passado, O senador Ben Sasse (R-Neb.) Apresentou um projeto de lei ao Congresso que puniria as pessoas pela criação e distribuição maliciosas de deepfakes. A conta, que foi introduzido um dia antes da paralisação do governo, voou sob o radar e morreu. Mas o escritório de Sasse planeja reintroduzi-lo.
p O USA Today entrou em contato com Sasse para obter mais informações.
p O senador disse em uma entrevista recente ao locutor de rádio Glenn Beck que a "tempestade perfeita de falsificações profundas" está chegando.
p O estado de Nova York apresentou um projeto de lei em 2018 que puniria as pessoas que criam vídeos digitais de assuntos sem seu consentimento.
p Apesar das preocupações com os perigos hipotéticos, o abuso de deepfakes ainda não foi visto fora dos vídeos adultos. O The Verge publicou um relatório em março que questiona se a tecnologia para troca de rostos é mesmo uma grande ameaça, visto que já está amplamente disponível há anos.
p Lyu said that he's doubtful that deepfakes can start a war, and it is unlikely that they will have a long-lasting effect on society as people become increasingly aware of the phenomenon.
p Lyu suggested that people may even become desensitized by them.
p Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.
p The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.
p To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.
p Hoje, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.
p One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.
p Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.
p AI generated humans have also begun showing up on television.
p The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.
p À primeira vista, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.
p But seconds into the video, it's apparent that he's not real.
p "I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."
p The agency's first fake female news anchor went live in February and she appears to be even more realistic. p (c)2019 USA Today
Distribuído pela Tribune Content Agency, LLC.