A pornografia gerada por IA - conhecida como "deepfakes" - está se tornando mais convincente, perfeito e real. Crédito:Shutterstock
Em janeiro deste ano, um novo aplicativo foi lançado que dá aos usuários a capacidade de trocar rostos em um vídeo por um rosto diferente obtido de outra foto ou vídeo - semelhante ao recurso de "troca de rosto" do Snapchat. É uma versão cotidiana do tipo de imagem gerada por computador (CGI) de alta tecnologia que vemos nos filmes.
Você pode reconhecê-lo da participação especial de uma jovem princesa Leia no filme Star Wars de 2016 um ladino , que usou o corpo de outro ator e filmagens do primeiro filme Star Wars criado 39 anos antes.
Um usuário do Reddit criou outra versão do jovem #PrincessLeia de #RogueOne em #FakeApp, o que parece mais realista. Essa tecnologia é uma loucura! https://t.co/FftqcepVYp pic.twitter.com/fUOad5k9ft
- 80Level (@EightyLevel) 30 de janeiro 2018
Agora, qualquer pessoa com um computador de alta potência, uma unidade de processamento gráfico (GPU) e o tempo disponível podem criar vídeos falsos realistas - conhecidos como "deepfakes" - usando inteligência artificial (IA).
Parece divertido, direito?
O problema é que essas mesmas ferramentas são acessíveis para aqueles que procuram criar pornografia não consensual de amigos, colegas de trabalho, colegas de classe, ex-parceiros e completos estranhos - e postar online.
A evolução dos deepfakes
Em dezembro de 2017, Motherboard contou a história de um usuário do Reddit conhecido como "deep fakes", que usaram IA para trocar os rostos de atores em vídeos pornográficos com os rostos de celebridades conhecidas. Outro usuário do Reddit criou o aplicativo de desktop chamado FakeApp.
Ele permite que qualquer pessoa, mesmo sem habilidades técnicas, crie seus próprios vídeos falsos usando a estrutura de aprendizado de máquina de código aberto TensorFlow do Google.
A tecnologia usa um método de IA conhecido como "aprendizado profundo", que envolve alimentar um computador com dados que o computador então usa para tomar decisões. No caso de pornografia falsa, o computador avaliará quais imagens faciais de uma pessoa serão mais convincentes como uma troca de rosto em um vídeo pornográfico.
Conhecido como "metamorfose", pornografia, ou "pornografia parasita", Vídeos ou fotos de sexo falsos não são um fenômeno novo. Mas o que torna o deepfakes um problema novo e preocupante é que a pornografia gerada por IA parece significativamente mais convincente e real.
Outra forma de abuso sexual baseado em imagem
Criando, distribuir ou ameaçar distribuir pornografia falsa sem o consentimento da pessoa cujo rosto aparece no vídeo é uma forma de "abuso sexual baseado em imagem" (IBAS). Também conhecido como "pornografia não consensual" ou "pornografia de vingança", é uma invasão de privacidade e uma violação do direito à dignidade, autonomia sexual e liberdade de expressão.
Em um caso de metamorfose, as fotos de uma mulher australiana foram roubadas de suas contas de mídia social, sobrepostas em imagens pornográficas e, em seguida, postadas em vários sites. Ela descreveu a experiência como fazendo com que ela se sentisse "fisicamente doente, com nojo, nervoso, degradado, desumanizado. "
No entanto, as respostas a esse tipo de abuso sexual permanecem inconsistentes. A regulamentação está faltando na Austrália, e em outros lugares.
Recurso sob a lei criminal australiana
Sul da Austrália, NSW, Victoria e o ACT têm crimes específicos para abuso sexual baseado em imagem com penas de até quatro anos de prisão. Sul da Austrália, NSW e o ACT definem explicitamente uma imagem "íntima" ou "invasiva" como incluindo imagens que foram alteradas ou manipuladas.
As jurisdições sem infrações penais específicas podem contar com leis criminais mais gerais. Por exemplo, o delito federal de telecomunicações de "usar um serviço de transporte para ameaçar, assediar ou ofender ", ou ofensas estaduais e territoriais, como filmagens ilegais, indecência, perseguindo, voyeurismo ou chantagem.
Mas não está claro se tais leis se aplicariam a casos de "pornografia falsa", o que significa que atualmente, a lei criminal fornece proteção inconsistente para vítimas de abuso sexual com base em imagem em toda a Austrália.
Recurso ao abrigo da lei civil australiana
As vítimas têm poucos recursos sob a lei de direitos autorais, a menos que possam provar que são os proprietários da imagem. Não está claro se isso significa o proprietário da imagem do rosto ou o proprietário do vídeo original. Eles podem ter mais sorte sob a lei de difamação. Aqui, o autor deve provar que o réu publicou material falso e depreciativo que os identifica.
Perseguindo contencioso civil, Contudo, é demorado e caro. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Também, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.
Addressing the gap in legislation
The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.
Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.
Mais importante, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.
Prevention and response beyond the law
While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Contudo, at the time of writing, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.
Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical
A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.
Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. Até então, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.
To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.