• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Usando um patch adversário impresso para enganar um sistema de IA

    Esquerda:A pessoa sem patch foi detectada com sucesso. Certo:a pessoa que está segurando o adesivo é ignorada. Crédito:arXiv:1904.08653 [cs.CV]

    Um trio de pesquisadores da Universidade de KU Leuven, na Bélgica, descobriu que é possível confundir um sistema de IA imprimindo uma determinada imagem e segurando-a contra seu corpo enquanto o sistema de IA tenta identificá-los como seres humanos. Simen Thys, Wiebe Van Ranst e Toon Goedemé escreveram um artigo descrevendo seus esforços e o carregaram para o arXiv servidor de pré-impressão. Eles também postaram um vídeo no YouTube mostrando o que realizaram.

    Para um sistema de IA aprender algo, como identificar objetos (incluindo seres humanos) em uma cena, deve ser treinado - o treinamento envolve mostrá-lo a milhares de objetos que se encaixam em determinadas categorias até que surjam padrões gerais. Mas, como a pesquisa anterior sugeriu, tais sistemas podem às vezes ficar confusos se forem apresentados a algo que não foram treinados para ver. Nesse caso, uma imagem 2D de pessoas segurando guarda-chuvas coloridos. Essas imagens que enganam a IA são conhecidas como remendos adversários.

    À medida que os sistemas de IA se tornam mais precisos e sofisticados, governos e corporações começaram a usá-los para aplicações do mundo real. Um aplicativo bem conhecido usado por governos está identificando indivíduos que podem causar problemas. Esses sistemas são treinados para reconhecer a forma humana - uma vez que isso aconteça, um sistema de reconhecimento facial pode ser ativado. Pesquisas recentes mostraram que os sistemas de reconhecimento facial podem ser enganados por usuários que usam óculos especialmente projetados. E agora parece que os sistemas de IA de detecção humana podem ser enganados por imagens colocadas na frente de suas formas.

    Em sua tentativa de enganar um sistema de IA de reconhecimento humano específico chamado YoLo (v2), os pesquisadores criaram ou editaram vários tipos de imagens que testaram com o sistema de IA até encontrar uma que funcionou particularmente bem - uma imagem de pessoas segurando guarda-chuvas coloridos que foi alterado girando-o e adicionando ruído. Para enganar o sistema de IA, a fotografia foi mantida em uma posição que ocupava a caixa que o sistema de IA construiu para determinar se um determinado objeto era identificável.

    Os pesquisadores demonstraram a eficácia de seu patch adversário criando um vídeo que mostrava as caixas desenhadas pelo sistema de IA conforme ele encontrava objetos em seu campo de visão e, em seguida, postava rótulos de identificação neles. Sem o patch, o sistema identificava facilmente as pessoas no vídeo como seres humanos, mas se um deles segurasse o adesivo sobre o meio, o sistema de IA não foi mais capaz de detectar sua presença.

    © 2019 Science X Network




    © Ciência https://pt.scienceaq.com