Ilustração de um ataque de metamorfose de rosto. As imagens originais à esquerda e à direita foram transformadas para criar a imagem falsa (centro). Crédito:Fraunhofer HHI
Desde desbloquear smartphones até agilizar as verificações de segurança em aeroportos:o uso de reconhecimento facial automatizado para identificação pessoal continua a crescer. Mas esse método de autenticação é vulnerável a ataques de metamorfose:os criminosos podem usá-lo indevidamente ao fundir duas imagens faciais diferentes em uma. Um único passaporte com uma fotografia manipulada dessa forma pode ser usado por duas pessoas diferentes. Junto com seus parceiros, As equipes de pesquisa da Fraunhofer estão desenvolvendo um sistema que evita esse tipo de ataque usando métodos de aprendizado de máquina.
Os viajantes que visitam regularmente os EUA costumam ser solicitados a olhar para uma câmera durante a inspeção de passaporte. A foto eletrônica é comparada instantaneamente com a foto armazenada no passaporte biométrico. Neste processo de reconhecimento facial biométrico, um programa captura os dados digitais da imagem ao vivo e os compara com os dados da imagem do chip para determinar se as características faciais individuais nas fotos correspondem ou não. O reconhecimento de rosto também pode ser usado para desbloquear smartphones e tablets. Este método destina-se a bloquear terceiros não autorizados e restringir o acesso a dados confidenciais. Mas a tecnologia é vulnerável a ataques direcionados, como uma variedade de testes já demonstraram. "Os criminosos são capazes de enganar os sistemas de reconhecimento de rosto - como os usados no controle de fronteiras - de forma que duas pessoas possam usar o mesmo passaporte, "diz Lukasz Wandzik, cientista do Instituto Fraunhofer para Sistemas de Produção e Tecnologia de Design IPK em Berlim. Junto com seus colegas do Instituto Fraunhofer de Telecomunicações, Instituto Heinrich Hertz, HHI e outros parceiros (ver caixa), ele está desenvolvendo um processo que identifica as anomalias da imagem que ocorrem durante o processamento da imagem digital em processos de metamorfose. "Em um ataque de metamorfose, duas imagens faciais são combinadas em uma única imagem facial sintética que contém as características de ambas as pessoas, "Wandzik explica. Como resultado, sistemas biométricos de reconhecimento facial autenticam a identidade de ambas as pessoas com base nesta foto manipulada no passaporte.
Esses ataques podem ocorrer, por exemplo, antes ou durante o processo de solicitação de um documento de identidade. No projeto ANANAS (da sigla em alemão para "Detecção de anomalias para prevenção de ataques em sistemas de autenticação baseados em imagens faciais"), os parceiros estão se concentrando neste problema analisando e pesquisando dados de imagens simuladas. Aqui, eles aplicam métodos modernos de processamento de imagem e aprendizado de máquina, em particular, redes neurais profundas projetadas explicitamente para processar dados de imagem. Essas redes complexas consistem em um grande número de níveis que estão interligados em estruturas multicamadas. Eles são baseados em conexões entre unidades de cálculos matemáticos e imitam a estrutura neural do cérebro humano.
Prevenção de roubo de identidade com redes neurais
Para testar os processos e sistemas em desenvolvimento, os parceiros do projeto começam gerando os dados usados para treinar os programas de processamento de imagem para detectar manipulações. Aqui, diferentes faces são transformadas em uma face. "Usando imagens faciais reais e transformadas, treinamos redes neurais profundas para decidir se uma determinada imagem facial é autêntica ou o produto de um algoritmo de transformação. As redes podem reconhecer imagens manipuladas com base nas mudanças que ocorrem durante a manipulação, especialmente em áreas semânticas, como características faciais ou reflexos nos olhos, "explica o professor Peter Eisert, chefe do departamento de tecnologias de visão e imagem da Fraunhofer HHI.
Algoritmos LRP tornam as previsões de IA explicáveis
As redes neurais tomam decisões muito confiáveis sobre se uma imagem é genuína ou não, com uma taxa de precisão de mais de 90 por cento nos bancos de dados de teste criados no projeto. "Mas o problema real é muito mais que não sabemos como a rede neural toma a decisão, "diz Eisert. Assim, além da precisão da decisão, os pesquisadores do Fraunhofer HHI também estão interessados na base para a decisão. Para responder a esta pergunta, eles analisam as regiões na imagem facial que são relevantes para a decisão usando algoritmos LRP (Layer-Wise Relevance Propagation) que eles próprios desenvolveram. Isso ajuda a identificar áreas suspeitas em uma imagem facial e a identificar e classificar artefatos criados durante um processo de transformação. Os testes de referência iniciais confirmam que os algoritmos podem ser usados para identificar com sucesso imagens transformadas. O software LRP rotula as áreas faciais relevantes para a decisão de acordo. Os olhos freqüentemente fornecem evidências de adulteração da imagem.
Os pesquisadores também usam essas informações para projetar redes neurais mais robustas, a fim de detectar a maior variedade possível de métodos de ataque. "Os criminosos podem recorrer a métodos de ataque cada vez mais sofisticados, por exemplo, métodos de IA que geram imagens faciais completamente artificiais. Ao otimizar nossas redes neurais, estamos tentando ficar um passo à frente dos culpados e identificar ataques futuros, "diz o professor de informática.
Já existe um pacote de software de demonstração, incluindo procedimentos de detecção e avaliação de anomalias. Ele contém vários módulos detectores diferentes de parceiros de projeto individuais que foram fundidos juntos. Os módulos interconectados aplicam diferentes métodos de detecção para encontrar manipulações, gerando um resultado geral ao final do processo. O objetivo é integrar o software em sistemas de reconhecimento facial existentes em pontos de verificação de fronteira ou melhorar os sistemas para incluir componentes de metamorfose e, assim, descartar a falsificação por meio de ataques correspondentes desse tipo.