• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A evolução de alta tecnologia da computação científica

    A evolução de alta tecnologia da computação científica. Crédito:Departamento de Energia dos EUA

    A ciência sempre se baseou em uma combinação de abordagens para derivar uma resposta ou desenvolver uma teoria. As sementes da teoria da seleção natural de Darwin cresceram sob uma agregação hercúlea de observação, dados, e experimente. A confirmação mais recente das ondas gravitacionais pelo Laser Interferometer Gravitational-Wave Observatory (LIGO) foi uma interação de décadas de teoria, experimentar, e computação.

    Certamente, esta ideia não foi perdida no Laboratório Nacional de Argonne do Departamento de Energia dos EUA (DOE), que ajudou a avançar os limites das tecnologias de computação de alto desempenho por meio do Argonne Leadership Computing Facility (ALCF).

    Percebendo a promessa da computação exascale, o ALCF está desenvolvendo a estrutura para aproveitar esse imenso poder de computação para uma combinação avançada de simulação, análise de dados, e aprendizado de máquina. Este esforço irá, sem dúvida, reformular a forma como a ciência é conduzida, e fazê-lo em escala global.

    Desde que o ALCF foi estabelecido em 2006, os métodos usados ​​para coletar, analisar e empregar dados mudaram drasticamente. Onde os dados já foram produto de e limitados pela observação física e experimento, avanços em feeds de instrumentação científica, como linhas de luz, colisores, e telescópios espaciais - apenas para citar alguns - aumentaram substancialmente a produção de dados, dando lugar a novas terminologias, como "big data".

    Embora o método científico permaneça intacto e o instinto humano de fazer grandes perguntas ainda conduza a pesquisa, a maneira como respondemos a essa nova sorte inesperada de informações requer uma mudança fundamental na forma como usamos as tecnologias de computação emergentes para análise e descoberta.

    Esta convergência de simulação, dados, e a aprendizagem está gerando um ciclo de feedback cada vez mais complexo, mas lógico.

    A capacidade computacional aumentada oferece suporte a simulações científicas maiores que geram conjuntos de dados massivos usados ​​para alimentar um processo de aprendizado de máquina, cuja saída informa uma simulação mais precisa. Esse, também, é ainda aumentado por dados de observações, experimentos, etc, para refinar o processo usando abordagens baseadas em dados.

    "Embora sempre tenhamos essa tradição de fazer simulações, temos trabalhado de forma incremental por mais de alguns anos para integrar dados e aprendizagem de forma robusta, "diz Michael Papka, Diretor do ALCF e vice-diretor de laboratório associado para Computação, Meio Ambiente e Ciências da Vida (CELS).

    Para avançar esse objetivo, a instalação lançou seu Programa de Ciência de Dados ALCF em 2016 para explorar e melhorar os métodos computacionais que poderiam permitir descobertas baseadas em dados em disciplinas científicas. O ALCF também expandiu recentemente seu Aurora Early Science Program com a adição de 10 novos projetos que ajudarão a preparar o futuro supercomputador exascale da instalação para dados e abordagens de aprendizagem.

    E no início deste ano, a diretoria do CELS anunciou a criação das divisões de Ciência da Computação (CPS) e Ciência de Dados e Aprendizagem (DSL) para explorar problemas científicos desafiadores por meio de modelagem e simulação avançadas, e análise de dados e outros métodos de inteligência artificial, respectivamente.

    "Esses esforços combinados se concentrarão nas ciências de domínio e identificarão problemas importantes que podem ser tratados por meio de uma combinação de simulação, ciência de dados, e abordagens de aprendizado de máquina. Em muitos casos, vamos contar com pessoas com experiência relevante em várias divisões, "diz o diretor do CPS, Paul Messina.

    Já, esta combinação de programas e entidades está sendo testada e comprovada por meio de estudos que cruzam o espectro científico, desde a compreensão das origens do universo até a decifração da conectividade neural do cérebro.

    Convergência para um futuro melhor

    Os dados sempre foram um motivador fundamental na ciência e, sim, é verdade que existe uma quantidade exponencialmente maior do que antes, dizer, dez anos atrás. Mas embora o tamanho e a complexidade dos dados agora disponíveis representem desafios, também está oferecendo oportunidades para novos insights.

    Sem dúvida, a pesquisa de Darwin era um grande volume de dados para a época, mas foi o culminar de quase 30 anos de coleta e análise meticulosas. Ele poderia ter diminuído consideravelmente o processo se tivesse acesso a computadores de alto desempenho, e técnicas de análise de dados e aprendizado de máquina, como mineração de dados.

    "Essas técnicas não mudam fundamentalmente o método científico, mas eles mudam a escala ou a velocidade ou o tipo de complexidade com a qual você pode lidar, "observa Rick Stevens, Diretor de laboratório associado do CELS e professor da Universidade de Chicago.

    Leva, por exemplo, pesquisa de novos materiais projetados para gerar energia solar à medida que a luz do sol atravessa as janelas. A tecnologia foi prejudicada por falta da molécula de corante certa, cuja descoberta requer a tarefa demorada de pesquisar resmas de literatura química para encontrar moléculas com os parâmetros corretos.

    A química e física Jacqueline Cole lidera um esforço colaborativo entre Argonne e a Universidade de Cambridge para trazer essas moléculas à luz. Cole desenvolveu um processo de vários estágios que percorre a simulação; extração de dados, enriquecimento, e mineração; previsão de materiais e validação experimental.

    A equipe executa simulações em grande escala em moléculas-alvo para prever corantes químicos com propriedades ópticas importantes. A partir desses dados, as moléculas são selecionadas para a síntese, e os produtos químicos resultantes são fabricados em dispositivos para validar suas perspectivas em janelas movidas a energia solar. Os resultados determinam se mais investigação é necessária.

    "Há um ciclo de feedback positivo inerente a isso, "diz ela." Mesmo que o processo de validação não vá bem, ele ainda pode fornecer alguns insights úteis. Podemos aprender, por exemplo, que precisamos refinar as relações estrutura-função das moléculas para um determinado aplicativo ou adicionar um novo tipo de dados aos dados existentes. "

    Uma grande parte do esforço foi focada na construção de um banco de dados de moléculas orgânicas desejáveis, grande parte do qual foi compilado por mineração de dados cerca de 300, 000 artigos de pesquisa publicados. A pesquisa foi estimulada pela Materials Genome Initiative, uma iniciativa do governo para levar materiais funcionais ao mercado muito mais rápido do que nas décadas anteriores.

    "A vantagem desse processo é realmente tirar a velha curadoria manual de bancos de dados, que é uma vida inteira de trabalho, e reduzi-lo a questão de alguns meses. Em última análise, alguns dias, "diz Cole.

    Uma máquina para ligar todos eles

    Seja na busca por moléculas de corante muito específicas ou no entendimento da física de fluxo fundamental para desenvolver pás de turbinas eólicas mais eficientes, a fusão e o florescimento da simulação, dados, e a aprendizagem só é possível devido ao desenvolvimento exponencial e deliberado de sistemas de computação e entrega de dados de alto desempenho.

    "As arquiteturas de supercomputadores estão sendo estruturadas para torná-las mais fáceis de lidar com grandes quantidades de dados e facilitar o aprendizado, além das simulações tradicionais, "diz Venkat Vishwanath, Líder de ciências de dados do ALCF. "E estamos equipando essas máquinas com conduítes enormes que nos permitem transmitir grandes quantidades de dados do mundo exterior, como o Large Hadron Collider no CERN e nossa própria Advanced Photon Source (APS) e permitir modelos baseados em dados. "

    Muitas arquiteturas atuais ainda exigem a transferência de dados de computador para computador, de uma máquina, a única função que é a simulação, para outro que se destaca em análise de dados e / ou aprendizado de máquina.

    Nos últimos anos, Argonne e o ALCF fizeram um sólido investimento em computação de alto desempenho que os aproxima de uma máquina totalmente integrada. O processo se acelerou em 2017, com a introdução do sistema Intel-Cray, Theta, que é capaz de combinar execuções de simulação tradicionais e técnicas de aprendizado de máquina.

    O ALCF ajudará a conduzir a simulação, dados, e aprender a um novo nível em 2021, quando eles revelam a primeira máquina exascale da nação, Aurora. Embora possa realizar um bilhão de bilhões de cálculos por segundo, sua principal vantagem pode ser sua capacidade de conduzir e convergir simulação, análise de dados, e aprendizado de máquina em um só lugar. O resultado final permitirá aos pesquisadores abordar novos tipos, bem como problemas muito maiores e reduzir o tempo de solução.

    "Aurora vai mudar o jogo, "diz Papka da ALCF." Estamos trabalhando com os fornecedores Intel e Cray para garantir que possamos apoiar a ciência por meio dessa confluência de simulação, dados, e aprendendo tudo no primeiro dia da implantação da Aurora. "

    Seja por Darwin ou Turing, seja com quadro-negro ou papel milimetrado, algumas das grandes inovações científicas do mundo foram o produto de um ou vários indivíduos determinados que entenderam bem o peso da aplicação de abordagens balanceadas e variadas para apoiar - ou refutar - uma hipótese.

    Porque a inovação atual é impulsionada pela colaboração entre colegas e entre disciplinas, o potencial de descoberta através da aplicação pragmática de novos recursos computacionais, juntamente com o fluxo de dados irrestrito, confunde a imaginação.


    © Ciência https://pt.scienceaq.com