• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Pesquisadores desenvolvem vacina contra ataques ao aprendizado de máquina

    Crédito CC0:domínio público

    Pesquisadores do Data61 do CSIRO, o braço especialista em dados e digital da agência nacional de ciências da Austrália, desenvolveram um conjunto pioneiro de técnicas para efetivamente 'vacinar' algoritmos contra ataques adversários, um avanço significativo na pesquisa de aprendizado de máquina.

    Os algoritmos 'aprendem' com os dados em que são treinados para criar um modelo de aprendizado de máquina que pode executar uma determinada tarefa com eficácia sem precisar de instruções específicas, como fazer previsões ou classificar com precisão imagens e e-mails. Essas técnicas já são amplamente utilizadas, por exemplo, para identificar e-mails de spam, diagnosticar doenças de raios-X, prever o rendimento das safras e em breve conduzirão nossos carros.

    Embora a tecnologia tenha um enorme potencial para transformar positivamente o nosso mundo, inteligência artificial e aprendizado de máquina são vulneráveis ​​a ataques adversários, uma técnica empregada para enganar os modelos de aprendizado de máquina por meio da entrada de dados maliciosos, causando seu mau funcionamento.

    Dr. Richard Nock, O líder do grupo de aprendizado de máquina na Data61 da CSIRO disse que, ao adicionar uma camada de ruído (ou seja, um adversário) sobre uma imagem, os invasores podem enganar os modelos de aprendizado de máquina, classificando incorretamente a imagem.

    "Ataques adversários provaram ser capazes de induzir um modelo de aprendizado de máquina a rotular incorretamente uma placa de parada de trânsito como sinal de velocidade, o que poderia ter efeitos desastrosos no mundo real.

    "Nossas novas técnicas previnem ataques adversários usando um processo semelhante à vacinação, "Dr. Nock disse.

    "Implementamos uma versão fraca de um adversário, como pequenas modificações ou distorção em uma coleção de imagens, para criar um conjunto de dados de treinamento mais 'difícil'. Quando o algoritmo é treinado em dados expostos a uma pequena dose de distorção, o modelo resultante é mais robusto e imune a ataques adversários, "

    Em um artigo de pesquisa aceito na Conferência Internacional de Aprendizado de Máquina (ICML) de 2019, os pesquisadores também demonstram que as técnicas de 'vacinação' são construídas a partir dos piores exemplos possíveis de adversários, e pode, portanto, resistir a ataques muito fortes.

    Adrian Turner, O CEO da Data61 da CSIRO disse que esta pesquisa é uma contribuição significativa para o campo crescente do aprendizado de máquina adversarial.

    "A inteligência artificial e o aprendizado de máquina podem ajudar a resolver alguns dos maiores problemas sociais do mundo, desafios econômicos e ambientais, mas isso não pode acontecer sem uma pesquisa focada nessas tecnologias.

    "As novas técnicas contra ataques adversários desenvolvidas na Data61 irão desencadear uma nova linha de pesquisa de aprendizado de máquina e garantir o uso positivo de tecnologias transformadoras de IA, "Sr. Turner disse.

    O artigo de pesquisa, "Monge embota Bayes:resultados de dureza para treinamento adversário, "foi apresentado no ICML em 13 de junho em Los Angeles.


    © Ciência https://pt.scienceaq.com