• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Esta rede neural profunda combate deepfakes

    A IA servirá para desenvolver um sistema de controle de rede que não apenas detecta e reage aos problemas, mas também pode prever e evitá-los. Crédito CC0:domínio público

    Ver para acreditar até que a tecnologia mostrou sua cabeça poderosa e nos deu ferramentas de edição de fotos poderosas e baratas. Agora, vídeos realistas que mapeiam as expressões faciais de uma pessoa nas de outra, conhecido como deepfakes, apresentar uma arma política formidável.

    Mas seja a suavização benigna de uma ruga em um retrato, ou um vídeo manipulado para parecer um político dizendo algo ofensivo, toda edição de fotos deixa rastros para as ferramentas certas descobrirem.

    Pesquisa liderada pelo Grupo de Computação em Vídeo de Amit Roy-Chowdhury da Universidade da Califórnia, Riverside desenvolveu uma arquitetura de rede neural profunda que pode identificar imagens manipuladas no nível do pixel com alta precisão. Roy-Chowdhury é professor de engenharia elétrica e da computação e membro do corpo docente da família Bourns na Marlan and Rosemary Bourns College of Engineering.

    Uma rede neural profunda é o que os pesquisadores de inteligência artificial chamam de sistemas de computador que foram treinados para fazer tarefas específicas, nesse caso, reconhecer imagens alteradas. Essas redes são organizadas em camadas conectadas; "arquitetura" se refere ao número de camadas e à estrutura das conexões entre elas.

    Objetos em imagens têm limites e sempre que um objeto é inserido ou removido de uma imagem, seus limites terão qualidades diferentes dos limites dos objetos na imagem naturalmente. Por exemplo, alguém com boas habilidades no Photoshop fará o possível para tornar o objeto inserido o mais natural possível, suavizando esses limites.

    Embora isso possa enganar a olho nu, quando examinado pixel por pixel, os limites do objeto inserido são diferentes. Por exemplo, eles são geralmente mais suaves do que os objetos naturais. Ao detectar limites de objetos inseridos e removidos, um computador deve ser capaz de identificar imagens alteradas.

    Os pesquisadores rotularam as imagens não manipuladas e os pixels relevantes nas regiões limítrofes das imagens manipuladas em um grande conjunto de dados de fotos. O objetivo foi ensinar às redes neurais conhecimentos gerais sobre as regiões manipuladas e naturais das fotos. Eles testaram a rede neural com um conjunto de imagens que nunca tinha visto antes, e detectou os alterados na maioria das vezes. Ele até localizou a região manipulada.

    "Treinamos o sistema para distinguir entre imagens manipuladas e não manipuladas, e agora, se você fornecer uma nova imagem, ela pode fornecer uma probabilidade de que essa imagem seja manipulada ou não, e localizar a região da imagem onde ocorreu a manipulação, "Roy-Chowdhury disse.

    Os pesquisadores estão trabalhando em imagens estáticas por enquanto, mas eles apontam que isso também pode ajudá-los a detectar vídeos deepfake.

    "Se você pode entender as características de uma imagem estática, em um vídeo é basicamente juntar imagens estáticas uma após a outra, "Roy-Chowdhury disse." O desafio mais fundamental é provavelmente descobrir se um quadro em um vídeo é manipulado ou não. "

    Mesmo um único quadro manipulado levantaria uma bandeira vermelha. Mas Roy-Chowdhury acredita que ainda temos um longo caminho a percorrer antes que as ferramentas automatizadas possam detectar vídeos falsos profundos.

    "É um problema desafiador, "Roy-Chowdhury disse." Este é um tipo de jogo de gato e rato. Toda essa área de segurança cibernética está, de certa forma, tentando encontrar melhores mecanismos de defesa, mas o invasor também encontra mecanismos melhores. "

    Ele disse que a detecção de deepfake totalmente automatizada pode não ser alcançável em um futuro próximo.

    "Se você quiser ver tudo o que está na internet, um humano não pode fazer isso por um lado, e um sistema automatizado provavelmente não pode fazer isso de forma confiável. Portanto, deve ser uma mistura dos dois, "Roy-Chowdhury disse.

    As arquiteturas de rede neural profunda podem produzir listas de vídeos e imagens suspeitos para as pessoas revisarem. Ferramentas automatizadas podem reduzir a quantidade de dados que as pessoas - como moderadores de conteúdo do Facebook - precisam filtrar para determinar se uma imagem foi manipulada.

    Para este uso, as ferramentas estão ao virar da esquina.

    "Isso provavelmente é algo para o qual essas tecnologias contribuirão em um período de tempo muito curto, provavelmente em alguns anos, "Roy-Chowdhury disse.


    © Ciência https://pt.scienceaq.com