• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Novo método para comparar redes neurais expõe como a inteligência artificial funciona

    Pesquisadores de Los Alamos estão procurando novas maneiras de comparar redes neurais. Esta imagem foi criada com um software de inteligência artificial chamado Stable Diffusion, usando o prompt “Peeking into the black box of neural networks”. Crédito:Laboratório Nacional de Los Alamos

    Uma equipe do Laboratório Nacional de Los Alamos desenvolveu uma nova abordagem para comparar redes neurais que analisam a "caixa preta" da inteligência artificial para ajudar os pesquisadores a entender o comportamento da rede neural. As redes neurais reconhecem padrões em conjuntos de dados; eles são usados ​​em toda a sociedade, em aplicativos como assistentes virtuais, sistemas de reconhecimento facial e carros autônomos.
    “A comunidade de pesquisa em inteligência artificial não tem necessariamente uma compreensão completa do que as redes neurais estão fazendo; elas nos dão bons resultados, mas não sabemos como ou por quê”, disse Haydn Jones, pesquisador do Advanced Research in Cyber Grupo de sistemas em Los Alamos. “Nosso novo método faz um trabalho melhor ao comparar redes neurais, o que é um passo crucial para entender melhor a matemática por trás da IA”.

    Jones é o principal autor do artigo "If You've Treined One You've Trained Them All:Inter-Architecture Similarity Increases With Robustness", que foi apresentado recentemente na Conferência sobre Incerteza em Inteligência Artificial. Além de estudar a similaridade de rede, o artigo é um passo crucial para caracterizar o comportamento de redes neurais robustas.

    As redes neurais são de alto desempenho, mas frágeis. Por exemplo, carros autônomos usam redes neurais para detectar sinais. Quando as condições são ideais, eles fazem isso muito bem. No entanto, a menor aberração - como um adesivo em um sinal de parada - pode fazer com que a rede neural identifique erroneamente o sinal e nunca pare.

    Para melhorar as redes neurais, os pesquisadores estão procurando maneiras de melhorar a robustez da rede. Uma abordagem de última geração envolve "atacar" as redes durante seu processo de treinamento. Pesquisadores intencionalmente introduzem aberrações e treinam a IA para ignorá-las. Esse processo é chamado de treinamento contraditório e, essencialmente, torna mais difícil enganar as redes.

    Jones, os colaboradores de Los Alamos, Jacob Springer e Garrett Kenyon, e o mentor de Jones, Juston Moore, aplicaram sua nova métrica de similaridade de rede a redes neurais treinadas por adversários e descobriram, surpreendentemente, que o treinamento de adversários faz com que as redes neurais no domínio da visão computacional convirjam para representações de dados muito semelhantes, independentemente da arquitetura de rede, à medida que a magnitude do ataque aumenta.

    “Descobrimos que quando treinamos redes neurais para serem robustas contra ataques adversários, elas começam a fazer as mesmas coisas”, disse Jones.

    Houve um grande esforço na indústria e na comunidade acadêmica em busca da "arquitetura certa" para redes neurais, mas as descobertas da equipe de Los Alamos indicam que a introdução do treinamento contraditório reduz substancialmente esse espaço de pesquisa. Como resultado, a comunidade de pesquisa de IA pode não precisar gastar tanto tempo explorando novas arquiteturas, sabendo que o treinamento adversário faz com que diversas arquiteturas convirjam para soluções semelhantes.

    "Ao descobrir que redes neurais robustas são semelhantes entre si, estamos tornando mais fácil entender como a IA robusta pode realmente funcionar. Podemos até estar descobrindo dicas de como a percepção ocorre em humanos e outros animais", disse Jones. + Explorar mais

    Quebrando IAs para torná-las melhores




    © Ciência https://pt.scienceaq.com