Crédito:Meyer_solutions / Shutterstock.com
"Deepfake" é o nome dado a vídeos criados por meio de técnicas de aprendizado profundo artificialmente inteligentes. Também conhecido como "troca de rosto", o processo envolve inserir um vídeo de origem de uma pessoa em um computador, e, em seguida, inserir várias imagens e vídeos de outra pessoa. A rede neural, então, aprende os movimentos e expressões da pessoa no vídeo de origem, a fim de mapear a imagem da outra para parecer que está realizando a fala ou ato.
Essa prática foi usada extensivamente pela primeira vez na produção de pornografia falsa no final de 2017 - onde os rostos de celebridades femininas famosas foram trocados. Pesquisas têm mostrado consistentemente que a pornografia lidera o caminho na adoção e avanço tecnológico quando se trata de tecnologias de comunicação, da câmera Polaroid para a Internet.
Deepfaking também foi usado para manipular e subverter discursos políticos:os primeiros experimentos com essa tecnologia, realizados por pesquisadores da Universidade de Washington, usaram discursos de Barack Obama como seu material de origem, e parecem plausíveis à primeira vista.
Antes do surgimento da troca de rostos habilitada para IA na pornografia, princípios e técnicas semelhantes já haviam sido bem experimentados e testados na produção de filmes, embora através de processos demorados e muito trabalhosos, envolvendo grandes equipes de especialistas em produção de filmes, equipamento e software. Veja, por exemplo, Furious 7, em que Paul Walker, o ator desempenhando o papel principal, morreu durante a produção. Os especialistas em pós-produção Weta Digital completaram meticulosamente o desempenho de Walker usando CGI e técnicas de composição avançadas.
Agora, Contudo, as tecnologias de aprendizado profundo e visão de máquina avançaram a tal ponto que o software relevante se tornou publicamente acessível e pode ser usado em um computador normal. Como consequência, temores foram expressos com razão. Há preocupações de que os deepfakes logo se espalhem, saturando todos os nossos encontros cotidianos com imagens em movimento, a ponto de não conseguirmos mais discernir quais vídeos são reais e quais são falsos.
Um momento olhando para trás na história, e examinar os momentos de introdução ou popularização de todas as novas mídias anteriores - da fotografia à world wide web - é útil aqui. Porque sempre houve um período de incerteza e confusão enquanto o público lutava com a aparente confusão das linhas entre a realidade e a ficção.
O recente surgimento dos fenômenos "deepfakes" pode ser entendido dentro desse continuum da mídia. É simplesmente o mais recente em uma linhagem de exemplos ao longo da história em que a inter-relação entre tecnologias e ilusão é fortemente tecida.
Uma história de falsificação
Tomemos, por exemplo, a chegada de um trem em La Ciotat, uma das primeiras peças da cinematografia de imagens em movimento, criado por Auguste e Louis Lumière. Notícias contemporâneas descreviam pessoas correndo gritando na tela enquanto o trem a vapor se aproximava deles durante sua primeira exibição pública em Paris em 1895.
Ou as fotos infames das Fadas de Cottingley, tirada em 1917, que foram considerados autênticos por alguns por mais de seis décadas. Os perpetradores finalmente admitiram que eram falsos na década de 1980.
Depois, há a transmissão da peça de rádio de 1938 de A Guerra dos Mundos, a primeira peça de rádio a usar o método de reportagem de notícias de ficção. Os jornais relataram que milhares de americanos fugiram de suas casas ao ouvir a peça. Pelo visto, eles acreditavam que uma invasão marciana estava acontecendo.
Em 1999, durante o advento da internet, pesquisas mostraram que o público do The Blair Witch Project acreditava genuinamente que os relatos de estudantes de cinema desaparecidos representados em um documentário e no site que o acompanha eram verdadeiros.
The Truth about Marika, de 2007, foi uma história transmídia de realidade mista sobre uma pessoa desaparecida, Marika. Relatos de seu desaparecimento foram transmitidos pela rede de serviço público sueco, levando alguns setores da audiência a acreditar que isso seja real.
A era da mídia de IA
Embora essas ocorrências possam ser difíceis de acreditar hoje, se você pensar sobre eles no contexto de desenvolvimentos tecnológicos, eles se tornam mais compreensíveis. Todos fizeram parte de momentos decisivos na evolução das formas de mídia com muito em comum - todos eles situaram uma história de ficção no que originalmente se acreditava ser um contexto factual. Também é verdade que todas as contas associadas na mídia foram, até certo ponto, exagerado.
A retrospectiva nos mostra que todos esses exemplos são representativos de um momento de transição. Esses tipos de projetos ocorrem apenas uma vez, no advento da nova forma de mídia. Após este ponto, o público se torna alfabetizado e é capaz de discernir efetivamente entre fato e ficção - eles não são pegos duas vezes. Este é um fenômeno cíclico em que "deepfakes" são simplesmente a manifestação mais recente. Portanto, talvez os medos atuais sejam exagerados.
Mas também é verdade que, devido à rapidez da inovação tecnológica, a potencial propagação exponencial de vídeo em vários espaços online, e o escopo potencial para exploração e subversão, nos encontramos em um momento bastante único. Desta vez, a distinção entre o que é real e o que é falso pode realmente se tornar imperceptível. Nesse ponto, todas as mídias baseadas em tela serão consideradas falsas.
E assim, enquanto a pesquisa avança em contra-tecnologias e detecção de deepfake, as plataformas terão que gerenciar o conteúdo com cuidado. Apesar disso, os modos atuais de divulgação política e de reportagem podem se tornar totalmente não confiáveis. Sem dúvida, novas formas de comunicação eficaz terão que evoluir.
Uma coisa é certa:os deepfakes são um sintoma da mídia moderna que está entrando na era da inteligência artificial. Eles ocuparão seu lugar na história da mídia como uma faceta intrínseca da pós-verdade, cenário de notícias falsas que caracteriza nosso momento atual.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.