• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Deepfakes:cidadãos digitais informados são a melhor defesa contra a manipulação online

    Crédito CC0:domínio público

    Mais de uma década atrás, O analista de Internet e estudioso de novas mídias Clay Shirky disse:"A única maneira real de acabar com o spam é encerrar a comunicação por e-mail." Fechar a Internet será a única maneira de acabar com a propaganda falsa em 2020?

    Hoje, qualquer um pode criar suas próprias notícias falsas e também divulgá-las. A propaganda online é mais enganosa e manipuladora do que nunca.

    Deepfakes, uma forma específica de desinformação que usa algoritmos de aprendizado de máquina para criar áudio e vídeo de pessoas reais dizendo e fazendo coisas que nunca disseram ou fizeram, estão se movendo rapidamente para serem indistinguíveis da realidade.

    Detectar desinformação alimentada por usos antiéticos de mídia digital, big data e inteligência artificial, e sua propagação através da mídia social, é da maior urgência.

    Os países devem educar e equipar seus cidadãos. Os educadores também enfrentam desafios reais para ajudar os jovens a desenvolver olhos de águia para falsos profundos. Se os jovens não têm confiança em encontrar e avaliar informações públicas confiáveis, sua motivação para participar ou confiar em nossas estruturas democráticas estará cada vez mais em risco.

    Minando a democracia

    Agora é possível gerar um vídeo de uma pessoa falando e fazendo expressões comuns a partir de apenas algumas ou mesmo de uma única imagem do rosto dessa pessoa. Aplicativos de troca de rosto, como FaceApp e aplicativos de sincronização labial, como Dubsmash, são exemplos de ferramentas deepfake básicas acessíveis e fáceis de usar que as pessoas podem usar sem qualquer fundo de programação ou codificação.

    Embora o uso desta tecnologia possa arrebatar ou atordoar os espectadores por suas representações de especialistas nas indústrias de entretenimento e jogos, a face sinistra dos deepfakes é uma séria ameaça à segurança das pessoas e à democracia.

    O potencial do Deepfakes para ser usado como uma arma está aumentando de forma alarmante e muitos danos podem ser previstos com base na capacidade das pessoas de criar conteúdo explícito sem o consentimento de terceiros.

    Espera-se que as pessoas usem deepfakes para cyberbully, destruir reputações, chantagem, espalhe discurso de ódio, incite a violência, interromper os processos democráticos, espalhar desinformação para públicos-alvo e cometer crimes cibernéticos e fraudes.

    Detecção de falsificação

    Jogadores-chave se aventuraram a encontrar uma resposta a ameaças falsas.

    O Facebook anunciou em 6 de janeiro que "fortalecerá sua política para enganar vídeos manipulados que foram identificados como deepfakes". A empresa diz que removerá a mídia manipulada que foi "editada ou sintetizada - além dos ajustes para clareza ou qualidade - de maneiras que não são aparentes para uma pessoa média" e se a mídia for "o produto de inteligência artificial ou aprendizado de máquina que se funde , substitui ou sobrepõe o conteúdo em um vídeo, fazendo com que pareça ser autêntico. "

    A notícia segue o "desafio deepfake do Facebook, "que visa criar novas ferramentas que detectem conteúdo de mídia manipulado. O desafio é apoiado pela Microsoft, um consórcio de inteligência artificial e um fundo de US $ 10 milhões.

    No final de outubro, O CEO do Facebook, Mark Zuckerberg, testemunhou em uma audiência do Comitê de Serviços Financeiros da Câmara dos Representantes dos EUA em Washington sobre os planos de criptomoeda da empresa, onde Zuckerberg enfrentou dúvidas sobre o que a empresa está fazendo para prevenir falsificações profundas.

    Danielle Citron, professor da Escola de Direito da Universidade de Boston, discute como deepfakes minam a verdade e ameaçam a democracia.

    A Defense Advanced Research Projects Agency (DARPA) do Departamento de Defesa dos EUA está trabalhando no uso de tipos específicos de algoritmos para avaliar a integridade da mídia visual digital.

    Alguns pesquisadores discutem o uso de redes neurais convolucionais - um conjunto de algoritmos que reproduz livremente o cérebro humano, projetado para analisar imagens visuais e reconhecer padrões - para detectar as inconsistências em vários quadros em deepfakes. Outros propõem algoritmos para detectar faces completamente geradas.

    Hani Farid, especialista em perícia digital e uma das principais autoridades na detecção de fotos falsas, e seu aluno Shruti Agarwal na Universidade da Califórnia, Berkeley está desenvolvendo um software que usa as características sutis de como uma pessoa fala para distingui-la da versão falsa.

    Farid também está colaborando de perto com o pioneiro Hao Li para enfrentar o problema de "engano cada vez mais transparente".

    Nação do YouTube

    E se acordarmos amanhã com uma grande falsificação de Greta Thunberg, Tempo Personalidade do Ano de 2019 da revista, acusando uma organização específica de ser o principal catalisador das mudanças climáticas? Algum jovem seria cético em relação à informação?

    Estamos vivendo em uma era digital em que muitas pessoas esperam que todas as respostas sejam encontradas por meio de uma pesquisa no Google, um vídeo do YouTube ou Vimeo ou uma palestra TED. Quase 100% dos jovens canadenses entre 15 e 24 anos usam a Internet diariamente. A maioria acompanha notícias e atualidades por meio de plataformas de mídia social, como o Facebook, Twitter e Instagram.

    Em 2017, 90 por cento dos canadenses de 18 a 24 anos eram usuários ativos do YouTube.

    De acordo com Statista, uma empresa que fornece dados de mercado e consumidores, "em maio de 2019, mais de 500 horas de vídeo foram enviadas ao YouTube a cada minuto, "igualando a" aproximadamente 30, 000 horas de conteúdo recém-carregado por hora ”. A empresa relata que entre 2014 e 2019“ o número de horas de conteúdo de vídeo carregado a cada 60 segundos cresceu cerca de 40% ”.

    Muitos dos atuais usuários de mídia social de 18 a 24 anos reconhecem as agendas e algoritmos por trás das postagens que aparecem em suas paredes. Em meu Ph.D. pesquisa de tese, Eu explorei como 42 participantes nessa faixa etária entendiam os refugiados em um contexto onde as ideias sobre refugiados eram profundamente influenciadas pela propaganda nas redes sociais, notícias falsas e desinformação. Descobri que muitos ansiavam por se tornar influenciadores e interromper comentários públicos e mensagens geradas pela mídia de maneiras que ressoam com campanhas de advocacy ou ativistas hoje lideradas por jovens.

    O fenômeno deepfake é um novo desafio crítico que eles, e todos os participantes de nossas democracias, agora cara.

    Educação para resiliência

    No Canadá, Jornalistas pelos Direitos Humanos anunciaram um novo programa, financiado pelo Heritage Canada, para treinar jornalistas e aumentar a "preparação do cidadão contra a manipulação online e a desinformação".

    Os educadores podem desempenhar um papel fundamental na promoção da agência jovem para detectar falsos graves e reduzir sua influência. Um desafio é garantir que os jovens aprendam habilidades críticas de alfabetização midiática enquanto continuam a explorar recursos valiosos online e desenvolver suas capacidades e conhecimentos para participar de estruturas democráticas.

    Seguindo as etapas que identifiquei no modelo "Prepare-se para agir contra a propaganda nas mídias sociais" - começando com a explicação de posições sobre uma questão polêmica direcionada pela propaganda nas mídias sociais - os educadores podem ajudar os jovens a discutir como eles percebem e reconhecem os deepfakes. Eles podem explorar as origens do conteúdo, quem é o alvo, a reação que está tentando alcançar e quem está por trás disso.

    Eles também podem discutir o papel e a responsabilidade dos jovens em responder e enfrentar a desinformação e potenciais estratégias digitais a serem seguidas neste processo. Uma geração bem equipada de cidadãos digitais pode ser nossa melhor aposta.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com