• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O aprendizado profundo se estende a supercomputadores científicos
    p Os pesquisadores entregaram um software de aprendizado profundo de 15 petaflop e o executaram no Cori, um supercomputador do National Energy Research Scientific Computing Center, uma instalação de usuário do Departamento de Energia do Escritório de Ciências. Crédito:Laboratório Nacional Lawrence Berkeley

    p Aprendizado de máquina, uma forma de inteligência artificial, goza de um sucesso sem precedentes em aplicações comerciais. Contudo, o uso de aprendizado de máquina em computação de alto desempenho para a ciência tem sido limitado. Porque? As ferramentas avançadas de aprendizado de máquina não foram projetadas para conjuntos de Big Data, como aqueles usados ​​para estudar estrelas e planetas. Uma equipe da Intel, Centro Nacional de Computação Científica de Pesquisa Energética (NERSC), e Stanford mudou essa situação. Eles desenvolveram o primeiro software de aprendizado profundo de 15 petaflop. Eles demonstraram sua capacidade de lidar com grandes conjuntos de dados por meio de execuções de teste no supercomputador Cori. p Usando técnicas de aprendizado de máquina em supercomputadores, cientistas poderiam extrair insights de grandes, conjuntos de dados complexos. Instrumentos poderosos, como aceleradores, produzir conjuntos de dados massivos. O novo software pode tornar os maiores supercomputadores do mundo capazes de encaixar esses dados em usos de aprendizado profundo. Os insights resultantes podem beneficiar a modelagem de sistemas terrestres, energia de fusão, e astrofísica.

    p As técnicas de aprendizado de máquina têm potencial para permitir que os cientistas extraiam insights valiosos de grandes, conjuntos de dados complexos produzidos por aceleradores, fontes de luz, telescópios, e simulações de computador. Embora essas técnicas tenham tido grande sucesso em uma variedade de aplicações comerciais, seu uso em computação de alto desempenho para a ciência foi limitado porque as ferramentas existentes não foram projetadas para funcionar com conjuntos de dados do tamanho de terabyte a petabyte encontrados em muitos domínios científicos.

    p Para resolver este problema, uma colaboração entre a Intel, o Centro de Computação Científica de Pesquisa Energética Nacional, e a Stanford University tem trabalhado para resolver problemas que surgem ao usar técnicas de aprendizado profundo, uma forma de aprendizado de máquina, em conjuntos de dados de terabyte e petabyte. A equipe desenvolveu o primeiro software de aprendizado profundo de 15 petaflop. Eles demonstraram sua escalabilidade para aplicativos com uso intensivo de dados, executando uma série de execuções de treinamento usando grandes conjuntos de dados científicos. As execuções usaram conjuntos de dados baseados na física e no clima em Cori, um supercomputador localizado no National Energy Research Scientific Computing Center. Eles alcançaram uma taxa de pico entre 11,73 e 15,07 petaflops (precisão simples) e um desempenho médio sustentado de 11,41 a 13,47 petaflops. (Um petaflop equivale a um milhão de bilhões de cálculos por segundo.)


    © Ciência https://pt.scienceaq.com