• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Algoritmo inspirado no cérebro ajuda os sistemas de IA a realizar multitarefas e lembrar

    Neurocientistas da UChicago descobriram que a adaptação de um mecanismo cerebral pode melhorar a capacidade das redes neurais artificiais de aprender várias tarefas. Crédito:istockphoto.com

    Por trás da maioria das tecnologias de inteligência artificial de hoje, de carros autônomos a reconhecimento facial e assistentes virtuais, mentem redes neurais artificiais. Embora baseado vagamente na forma como os neurônios se comunicam no cérebro, esses sistemas de "aprendizado profundo" permanecem incapazes de muitas funções básicas que seriam essenciais para primatas e outros organismos.

    Contudo, um novo estudo de neurocientistas da Universidade de Chicago descobriu que adaptar um mecanismo cerebral bem conhecido pode melhorar drasticamente a capacidade das redes neurais artificiais de aprender várias tarefas e evitar o persistente desafio da IA ​​de "esquecimento catastrófico". O estudo, publicado em Proceedings of the National Academy of Sciences , fornece um exemplo único de como a pesquisa em neurociência pode informar novas estratégias de ciência da computação, e, por outro lado, como a tecnologia de IA pode ajudar os cientistas a entender melhor o cérebro humano.

    Quando combinado com métodos relatados anteriormente para estabilizar conexões sinápticas em redes neurais artificiais, o novo algoritmo permitiu que redes neurais artificiais únicas aprendessem e executassem centenas de tarefas com perda mínima de precisão, potencialmente permitindo tecnologias de IA mais poderosas e eficientes.

    "Intuitivamente, você pode pensar que quanto mais tarefas você deseja que uma rede conheça, quanto maior a rede deve ser, "disse David Freedman, professor de neurobiologia na UChicago. "Mas o cérebro sugere que provavelmente existe uma maneira eficiente de agrupar muito conhecimento em uma rede bastante pequena. Quando você olha para as partes do cérebro envolvidas em funções cognitivas superiores, você tende a descobrir que as mesmas áreas, até mesmo as mesmas células, participar em muitas funções diferentes. A ideia era inspirar-se no que o cérebro faz para resolver os desafios das redes neurais. "

    Em redes neurais artificiais, "esquecimento catastrófico" refere-se à dificuldade em ensinar o sistema a executar novas habilidades sem perder as funções aprendidas anteriormente. Por exemplo, se uma rede inicialmente treinada para distinguir entre fotos de cães e gatos for então treinada novamente para distinguir entre cães e cavalos, ele perderá sua habilidade anterior.

    "Se você mostrar uma nova tarefa a uma rede neural treinada, ele vai se esquecer completamente de sua tarefa anterior, "disse Gregory Grant, AB'18, que agora é pesquisador do laboratório Freedman. "Diz, 'Eu não preciso dessa informação, 'e o substitui. Isso é esquecimento catastrófico. Acontece muito rapidamente; em apenas algumas iterações, sua tarefa anterior pode ser totalmente destruída. "

    Por contraste, o cérebro é capaz de "aprendizado contínuo, "adquirir novos conhecimentos sem eliminar velhas memórias, mesmo quando os mesmos neurônios são usados ​​para várias tarefas. Uma estratégia que o cérebro usa para este desafio de aprendizagem é a ativação seletiva de células ou componentes celulares para diferentes tarefas - essencialmente ligando menores, sobreposição de sub-redes para cada habilidade individual, ou em contextos diferentes.

    Os pesquisadores da UChicago adaptaram esse mecanismo neurocientífico a redes neurais artificiais por meio de um algoritmo que chamaram de "portas dependentes do contexto". Para cada nova tarefa aprendida, apenas 20% aleatoriamente de uma rede neural é ativada. Depois que a rede é treinada em centenas de tarefas diferentes, um único nó pode estar envolvido em dezenas de operações, mas com um conjunto único de pares para cada habilidade individual.

    Quando combinados com métodos desenvolvidos anteriormente por pesquisadores do Google e de Stanford, o gating dependente do contexto permitiu que as redes aprendessem até 500 tarefas com apenas uma pequena diminuição na precisão.

    "Foi um pouco surpreendente que algo tão simples funcionasse tão bem, "disse Nicolas Masse, um pesquisador de pós-doutorado no laboratório Freedman. "Mas com este método, uma rede de tamanho razoavelmente médio pode ser dividida em uma série de maneiras de aprender muitas tarefas diferentes, se realizada corretamente. "

    Como tal, a abordagem provavelmente tem um grande potencial na crescente indústria de IA, onde as empresas desenvolvem veículos autônomos, a robótica e outras tecnologias inteligentes precisam incluir recursos de aprendizagem complexos em computadores de nível de consumidor. A equipe da UChicago está trabalhando atualmente com o Centro Polsky de Empreendedorismo e Inovação para explorar as opções de comercialização do algoritmo.

    A pesquisa computacional também beneficia o foco original do laboratório em compreender melhor o cérebro dos primatas, registrando sua atividade à medida que os animais aprendem e se comportam. Estratégias de modelagem e teste que permitem o aprendizado, atenção, o processamento sensorial e outras funções em um computador podem motivar e sugerir novos experimentos biológicos que investigam os mecanismos da inteligência natural e artificial, disseram os pesquisadores.

    "Adicionar este componente de pesquisa ao laboratório realmente abriu muitas portas em termos de nos permitir pensar sobre novos tipos de problemas, novos tipos de tópicos e problemas da neurociência que normalmente não podemos resolver usando as técnicas experimentais atualmente disponíveis para nós no laboratório, "Freedman disse." Esperamos que este seja o ponto de partida para mais trabalho no laboratório, tanto para identificar esses princípios quanto para ajudar a criar redes artificiais que continuem aprendendo e construindo sobre o conhecimento anterior. "


    © Ciência https://pt.scienceaq.com