Estudo mostra que deepfakes de fala frequentemente enganam as pessoas, mesmo após treinamento sobre como detectá-los
Estudo mostra que deepfakes de fala frequentemente enganam as pessoas, mesmo após treinamento sobre como detectá-los Um novo estudo da Universidade da Califórnia, Berkeley, descobriu que os deepfakes de fala podem frequentemente enganar as pessoas, mesmo depois de terem sido treinadas sobre como detectá-los.
O estudo, publicado na revista _PLoS One_, pediu a 33 pessoas que ouvissem uma série de falas falsas e gravações reais. Os participantes foram então solicitados a avaliar o quão confiantes estavam de que cada gravação era real ou falsa.
Os resultados mostraram que os participantes foram enganados pelos deepfakes de fala cerca de 50% das vezes, mesmo depois de terem sido treinados para detectá-los. Isto sugere que os deepfakes de fala estão se tornando cada vez mais sofisticados e difíceis de detectar.
Os autores do estudo dizem que suas descobertas têm implicações para o uso de deepfakes de fala no mundo real. Eles alertam que os deepfakes de fala podem ser usados para espalhar informações erradas, se passar por outras pessoas ou cometer fraudes.
“Nossas descobertas sugerem que precisamos ser mais cautelosos em acreditar no que ouvimos”, disse o coautor do estudo, Dan Goldstein. “Os deepfakes de fala estão se tornando cada vez mais realistas e cada vez mais difíceis de detectar.”
Os autores do estudo recomendam que as pessoas tomem as seguintes medidas para se protegerem de deepfakes de fala:
* Esteja ciente de que existem deepfakes de fala e seja cético em relação a quaisquer gravações de áudio que encontrar.
* Preste atenção às dicas visuais de uma gravação. Se a boca da pessoa não se mover em sincronia com as palavras que ela está dizendo, pode ser um deepfake.
* Ouça quaisquer sons estranhos ou não naturais em uma gravação. Deepfakes geralmente têm som eletrônico ou robótico.
* Se você não tiver certeza se uma gravação é real ou falsa, tente encontrar outras fontes de informação para verificá-la.
Os autores do estudo afirmam que essas etapas podem ajudar as pessoas a se protegerem dos deepfakes de fala, mas também reconhecem que os deepfakes de fala são um problema sério que exigirá um esforço conjunto para ser resolvido.
“Precisamos continuar pesquisando os deepfakes de fala e desenvolver novas maneiras de detectá-los”, disse Goldstein. “Também precisamos aumentar a conscientização sobre os perigos dos deepfakes de fala e educar as pessoas sobre como se protegerem”.