• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Aprendizagem profunda fecha o círculo
    p Crédito CC0:domínio público

    p Por anos, as pessoas que desenvolvem inteligência artificial se inspiraram no que se sabia sobre o cérebro humano, e tem obtido muito sucesso como resultado. Agora, AI está começando a retribuir o favor. p Embora não seja explicitamente projetado para isso, certos sistemas de inteligência artificial parecem imitar o funcionamento interno de nossos cérebros mais de perto do que se pensava anteriormente, sugerindo que tanto a IA quanto nossas mentes convergiram para a mesma abordagem para resolver problemas. Se então, simplesmente observar a IA em funcionamento pode ajudar os pesquisadores a desvendar alguns dos mistérios mais profundos do cérebro.

    p "Há uma conexão real lá, "disse Daniel Yamins, professor assistente de psicologia. Agora, Yamins, que também é bolsista do Stanford Neurosciences Institute e membro do Stanford Bio-X, e seu laboratório está construindo essa conexão para produzir melhores teorias sobre o cérebro - como ele percebe o mundo, como ele muda de forma eficiente de uma tarefa para a próxima e talvez, um dia, como ele pensa.

    p Um problema de visão para IA

    p A inteligência artificial tem sido emprestada do cérebro desde seus primeiros dias, quando cientistas da computação e psicólogos desenvolveram algoritmos chamados redes neurais que imitavam vagamente o cérebro. Esses algoritmos foram frequentemente criticados por serem biologicamente implausíveis - os "neurônios" nas redes neurais eram, Afinal, simplificações grosseiras dos neurônios reais que constituem o cérebro. Mas os cientistas da computação não se importaram com a plausibilidade biológica. Eles só queriam sistemas que funcionassem, então eles estenderam os modelos de rede neural de qualquer maneira que tornasse o algoritmo mais capaz de realizar certas tarefas, culminando no que agora é chamado de aprendizado profundo.

    p Então veio uma surpresa. Em 2012, Pesquisadores de IA mostraram que uma rede neural de aprendizado profundo pode aprender a identificar objetos em imagens, assim como um ser humano, o que fez os neurocientistas se perguntarem:como o aprendizado profundo faz isso?

    p Da mesma forma que o cérebro, como se descobriu. Em 2014, Yamins e seus colegas mostraram que um sistema de aprendizado profundo que aprendeu a identificar objetos em imagens - quase tão bem quanto os humanos poderiam - o fez de uma forma que imitava de perto a maneira como o cérebro processa a visão. Na verdade, os cálculos que o sistema de aprendizado profundo executou combinaram com a atividade nos circuitos de processamento de visão do cérebro substancialmente melhor do que qualquer outro modelo desses circuitos.

    p Mais ou menos na mesma época, outras equipes fizeram observações semelhantes sobre partes da visão do cérebro - e circuitos de processamento de movimento, sugerindo que, dado o mesmo tipo de problema, o aprendizado profundo e o cérebro desenvolveram maneiras semelhantes de encontrar uma solução. Mais recentemente, Yamins e colegas demonstraram observações semelhantes no sistema auditivo do cérebro.

    p Por um lado, isso não é uma grande surpresa. Embora os detalhes técnicos sejam diferentes, A organização conceitual do aprendizado profundo é emprestada diretamente do que os neurocientistas já sabiam sobre a organização dos neurônios no cérebro.

    p Mas o sucesso da abordagem de Yamins e colegas e de outras semelhantes depende igualmente de outro, escolha mais sutil. Em vez de tentar fazer com que o sistema de aprendizado profundo corresponda diretamente ao que o cérebro faz no nível dos neurônios individuais, como muitos pesquisadores fizeram, Yamins e seus colegas simplesmente atribuíram a seu sistema de aprendizado profundo o mesmo problema:identificar objetos em imagens. Somente depois de ter resolvido o problema, os pesquisadores compararam como o aprendizado profundo e o cérebro chegaram a suas soluções - e só então ficou claro que seus métodos eram essencialmente os mesmos.

    p “A correspondência entre os modelos e o sistema visual não é inteiramente uma coincidência, porque um inspirou diretamente o outro, "disse Daniel Bear, um pesquisador de pós-doutorado no grupo de Yamins, "mas ainda é notável que seja uma correspondência tão boa quanto é."

    p Uma razão provável para isso, Bear disse, é a seleção natural e a evolução. "Basicamente, o reconhecimento de objetos era uma tarefa evolutivamente importante "para os animais resolverem - e resolverem bem, se eles quisessem saber a diferença entre algo que eles poderiam comer e algo que poderia comê-los. Talvez tentar fazer isso tão bem quanto os humanos e outros animais fazem - exceto com um computador - levou os pesquisadores a encontrar essencialmente a mesma solução.

    p Procure o que o cérebro busca

    p Seja qual for o motivo subjacente, as percepções colhidas do estudo de 2014 levaram ao que Yamins chama de modelos do cérebro dirigidos por objetivos:em vez de tentar modelar a atividade neural no cérebro diretamente, em vez disso, treine a inteligência artificial para resolver problemas que o cérebro precisa resolver, em seguida, use o sistema de IA resultante como um modelo do cérebro. Desde 2014, Yamins e colaboradores vêm refinando o modelo original direcionado a um objetivo dos circuitos de visão do cérebro e estendendo o trabalho em novas direções, incluindo a compreensão dos circuitos neurais que processam as entradas dos bigodes dos roedores.

    p Talvez no projeto mais ambicioso, Yamins e seu colega de pós-doutorado Nick Haber estão investigando como os bebês aprendem sobre o mundo ao seu redor por meio de brincadeiras. Seus bebês - na verdade, simulações de computador relativamente simples - são motivados apenas pela curiosidade. Eles exploram seus mundos movendo-se e interagindo com objetos, aprendendo enquanto vão para prever o que acontece quando eles acertam as bolas ou simplesmente viram suas cabeças. Ao mesmo tempo, o modelo aprende a prever quais partes do mundo ele não entende, em seguida, tenta descobrir isso.

    p Enquanto a simulação de computador começa a vida - por assim dizer - não sabendo essencialmente nada sobre o mundo, eventualmente descobre como categorizar objetos diferentes e até mesmo como esmagar dois ou três deles juntos. Embora as comparações diretas com a atividade neural dos bebês possam ser prematuras, o modelo pode ajudar os pesquisadores a entender melhor como os bebês usam as brincadeiras para aprender sobre seus ambientes, Haber disse.

    p Do outro lado do espectro, modelos inspirados na inteligência artificial podem ajudar a resolver um quebra-cabeça sobre o layout físico do cérebro, disse Eshed Margalit, um estudante de graduação em neurociências. À medida que os circuitos de visão no cérebro dos bebês se desenvolvem, eles formam manchas específicas - agrupamentos físicos de neurônios - que respondem a diferentes tipos de objetos. Por exemplo, humanos e outros primatas formam um adesivo facial que fica ativo quase que exclusivamente quando olham para os rostos.

    p Exatamente por que o cérebro forma essas manchas, Margalit disse, não está claro. O cérebro não precisa de um adesivo facial para reconhecer rostos, por exemplo. Mas, ao construir modelos de IA como os do Yamins, que já resolvem tarefas de reconhecimento de objetos, "agora podemos tentar modelar essa estrutura espacial e fazer perguntas sobre por que o cérebro é organizado dessa forma e quais vantagens isso pode dar a um organismo, "Disse Margalit.

    p Fechando o ciclo

    p Existem outras questões para resolver também, notavelmente como os sistemas de inteligência artificial aprendem. Agora mesmo, A IA precisa de muito mais treinamento - e muito mais treinamento explícito - do que os humanos para ter um bom desempenho em tarefas como reconhecimento de objetos, embora como os humanos tenham sucesso com tão poucos dados ainda não esteja claro.

    p Uma segunda questão é como ir além dos modelos de visão e outros sistemas sensoriais. "Assim que você tiver uma impressão sensorial do mundo, você quer tomar decisões com base nisso, "Yamins disse." Estamos tentando fazer modelos de tomada de decisão, aprender a tomar decisões e como interagir entre os sistemas sensoriais, tomada de decisão e memória. "Yamins está começando a abordar essas ideias com Kevin Feigelis, um estudante de graduação em física, que está construindo modelos de IA que podem aprender a resolver muitos tipos diferentes de problemas e alternar entre as tarefas conforme necessário, algo que poucos sistemas de IA são capazes de fazer.

    p A longo prazo, Yamins e os outros membros de seu grupo disseram que todos esses avanços poderiam alimentar sistemas de inteligência artificial mais capazes, assim como as pesquisas anteriores em neurociência ajudaram a promover o desenvolvimento do aprendizado profundo. "Acho que as pessoas da inteligência artificial estão percebendo que há certos próximos objetivos muito bons para a inteligência artificial inspirada cognitivamente, "Haber disse, incluindo sistemas como o dele, que aprendem explorando ativamente seus mundos. "As pessoas estão brincando com essas idéias."


    © Ciência https://pt.scienceaq.com