• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Natureza
    A otimização do fluxo de dados do terremoto permite pesquisas científicas sobre o Grande
    Crédito:Wilson Malone da Pexels

    Ninguém pode prever com precisão quando um terremoto irá acontecer. Desde o terremoto de magnitude 6,7 de Northridge em 1994, no condado de Los Angeles, que causou 72 mortes, 9.000 feridos e US$ 25 bilhões em danos, o sul da Califórnia tem esperado ansiosamente pelo "Grande":um terremoto devastador previsto para ter magnitude de pelo menos 7,8 e 44 vezes mais forte. Os sismólogos só podem dizer que isso poderá acontecer nos próximos 30 anos.



    Embora os cientistas não possam prever quando e onde ocorrerão os sismos, a preparação é fundamental para melhorar a resiliência da sociedade a grandes sismos. Em particular, o Centro Estadual de Terremotos da Califórnia (SCEC), com sede na USC, desenvolveu o CyberShake, uma plataforma computacional que simula centenas de milhares de terremotos para calcular modelos regionais de risco sísmico.

    Revelando áreas geográficas no sul da Califórnia com maior risco de tremores intensos, seus resultados influenciaram os códigos de construção de Los Angeles e o design dos modelos de terremotos no Serviço Geológico dos EUA, a maior agência de mapeamento científico geológico e terrestre do país.

    Os estudos do CyberShake – e grande parte da ciência moderna, no entanto – são altamente intensivos em dados e computação. Com cálculos em várias etapas que alimentam inúmeras tarefas computacionais interconectadas executadas em supercomputadores locais e nacionais para simular 600.000 terremotos diferentes, o fluxo de trabalho científico do CyberShake é complexo. O Instituto de Ciências da Informação (ISI) da USC Viterbi abriga as ferramentas para gerar e gerenciar esses dados massivos.

    Ewa Deelman, professora pesquisadora em ciência da computação e diretora de pesquisa do ISI, projeta e atualiza continuamente, desde 2000, um sistema automatizado de gerenciamento de fluxo de trabalho chamado Pegasus.

    Fluxos de trabalho otimizados


    Pegasus – batizado em homenagem ao Planning for Execution and Grids (PEG) e ao amor de Deelman por cavalos – transforma experimentos de pesquisa em fluxos de trabalho otimizados. Ele pode ser usado por cientistas em vários campos, desde sismologia até física e bioinformática, devido ao seu design abstrato.

    Deelman compara isso a uma receita culinária:“Você pode usar a mesma receita em cozinhas diferentes. Diferentes usuários podem executar a receita (o fluxo de trabalho), mas com seus próprios utensílios de cozinha (recursos computacionais). tornar-se amplamente aplicável."

    Em 2016, cientistas do Observatório de Ondas Gravitacionais com Interferômetro Laser (LIGO) utilizaram o Pegasus para capturar ondas gravitacionais no universo, confirmando a Teoria Geral da Relatividade de Albert Einstein e ganhando o Prêmio Nobel de Física de 2017. Durante a colaboração de 16 anos entre cientistas da computação do ISI e membros do LIGO, o software gerenciou milhares de fluxos de trabalho com milhões de tarefas.

    O Sensoriamento Colaborativo e Adaptativo da Atmosfera (CASA), um centro de pesquisa de engenharia dedicado a melhorar a previsão e resposta a condições climáticas perigosas, também transferiu seus oleodutos para o Pegasus. Como o clima severo pode retardar e comprometer os recursos locais e a capacidade computacional, o programa envia os dados do CASA para infraestruturas em nuvem para garantir um fluxo de trabalho contínuo.

    Inspirado em comportamentos animais


    A CyberShake confiou no Pegasus nos últimos 15 anos, incluindo seu estudo mais recente com o maior conjunto de simulações de terremotos até agora. A Pegasus gerenciou 2,5 petabytes de dados e executou 28.120 trabalhos de fluxo de trabalho ao longo de 108 dias para produzir mapas de riscos sísmicos em 772.000 horas-node.

    “Sem o Pegasus, não seríamos capazes de fazer esse tipo de ciência”, disse Scott Callaghan, cientista da computação do SCEC e desenvolvedor-chefe do CyberShake. A SCEC expandirá o CyberShake para o norte da Califórnia, agora usando o supercomputador mais rápido do mundo, o Frontier. Pegasus continuará ao seu lado.

    "Cada vez que fazemos um desses estudos, sempre encontramos desafios inesperados. Mas estou confiante de que, com quaisquer problemas de fluxo de trabalho, a equipe da Pegasus poderá nos ajudar a resolvê-los para que possamos continuar obtendo ciência de ponta feito", disse Callaghan.

    Deelman está agora conduzindo pesquisas e conceituando o SWARM, outro sistema de gerenciamento de fluxo de trabalho inspirado na coordenação inteligente de comportamentos de grupo entre animais sociais, como as formigas. Ela também planeja aprimorar a tomada de decisões da Pegasus com inteligência artificial, reimaginando como os sistemas de fluxo de trabalho funcionarão no futuro.

    Fornecido pela Universidade do Sul da Califórnia



    © Ciência https://pt.scienceaq.com