Nuvens rasas formadas por redemoinhos em escala fina como observado na natureza. Os pesquisadores estão usando computação avançada para adicionar dinâmicas de nuvem de alta resolução em simulações globais. Crédito:Creative Commons
Ouvimos muito sobre como as mudanças climáticas vão mudar a terra, o mar e o gelo. Mas como isso afetará as nuvens?
“Nuvens baixas podem secar e encolher como as camadas de gelo”, diz Michael Pritchard, professor de ciências do Sistema Terrestre na UC Irvine. "Ou eles podem engrossar e se tornar mais reflexivos."
Esses dois cenários resultariam em climas futuros muito diferentes. E isso, diz Pritchard, é parte do problema.
"Se você perguntar a dois modelos climáticos diferentes como será o futuro quando adicionarmos muito mais CO
2 , você obtém duas respostas muito diferentes. E a principal razão para isso é a forma como as nuvens são incluídas nos modelos climáticos."
Ninguém nega que nuvens e aerossóis – pedaços de fuligem e poeira que nucleam gotículas de nuvens – são uma parte importante da equação climática. O problema é que esses fenômenos ocorrem em uma escala de duração e tempo que os modelos atuais não conseguem reproduzir. Eles são, portanto, incluídos nos modelos através de uma variedade de aproximações.
Análises de modelos climáticos globais mostram consistentemente que as nuvens constituem a maior fonte de incerteza e instabilidade.
Reformulando códigos da comunidade Enquanto o modelo climático global mais avançado dos EUA está lutando para se aproximar da resolução global de 4 quilômetros, Pritchard estima que os modelos precisam de uma resolução de pelo menos 100 metros para capturar os redemoinhos turbulentos em escala fina que formam sistemas de nuvens rasas – 40 vezes mais resolvidos em cada direção. Pode levar até 2060, de acordo com a lei de Moore, antes que o poder de computação esteja disponível para capturar esse nível de detalhe.
Pritchard está trabalhando para corrigir essa lacuna gritante, dividindo o problema de modelagem climática em duas partes:um modelo planetário de baixa resolução (100 km) e muitos pequenos trechos com resolução de 100 a 200 metros. As duas simulações são executadas independentemente e, em seguida, trocam dados a cada 30 minutos para garantir que nenhuma simulação saia dos trilhos nem se torne irreal.
Sua equipe relatou os resultados desses esforços no
Journal of Advances in Modeling Earth Systems em abril de 2022.
Este método de simulação climática, chamado de "Multiscale Modeling Framework (MMF)", existe desde 2000 e tem sido uma opção dentro do modelo Community Earth System Model (CESM), desenvolvido no National Center for Atmospheric Research. Ultimamente, a ideia tem desfrutado de um renascimento no Departamento de Energia, onde pesquisadores do Energy Exascale Earth System Model (E3SM) a empurram para novas fronteiras computacionais como parte do Exascale Computing Project. O co-autor de Pritchard, Walter Hannah, do laboratório nacional Lawrence Livermore, ajuda a liderar esse esforço.
“O modelo faz uma análise final em torno do problema mais difícil – modelagem de todo o planeta”, explicou Pritchard. “Tem milhares de pequenos micromodelos que capturam coisas como formação de nuvens rasas realistas que só emergem em resolução muito alta”.
“A abordagem do Multiscale Modeling Framework também é ideal para os próximos computadores exascale baseados em GPU do DOE”, disse Mark Taylor, Cientista Computacional Chefe do projeto Energy Exascale Earth System Model (E3SM) do DOE e pesquisador do Sandia National Laboratories. “Cada GPU tem a potência para executar centenas de micromodelos enquanto ainda corresponde à taxa de transferência do modelo planetário de baixa resolução de granulação grossa”.
A pesquisa de Pritchard e a nova abordagem são possíveis em parte pelo supercomputador Frontera, financiado pela NSF, no Texas Advanced Computing Center (TACC). O supercomputador universitário mais rápido do mundo, Pritchard pode executar seus modelos no Frontera em uma escala de tempo e comprimento acessível apenas em alguns sistemas nos EUA e testar seu potencial para modelagem em nuvem.
“Desenvolvemos uma maneira de um supercomputador dividir melhor o trabalho de simular a física da nuvem em diferentes partes do mundo que merecem diferentes quantidades de resolução…
Simular a atmosfera dessa maneira fornece a Pritchard a resolução necessária para capturar os processos físicos e os redemoinhos turbulentos envolvidos na formação de nuvens. The researchers showed that the multi-model approach did not produce unwanted side effects even where patches using different cloud-resolving grid structures met.
"We were happy so see that the differences were small," he said. "This will provide new flexibility to all users of climate models who want to focus high resolution in different places."
Disentangling and reconnecting the various scales of the CESM model was one challenge that Pritchard's team overcame. Another involved reprogramming the model so it could take advantage of the ever-increasing number of processors available on modern supercomputing systems.
Pritchard and his team—UCI postdoctoral scholar Liran Peng and University of Washington research scientist Peter Blossey—tackled this by breaking the inner domains of the CESM's embedded cloud models into smaller parts that could be solved in parallel using MPI, or message passing interface—a way of exchanging messages between multiple computers running a parallel program across distributed memory—and orchestrating these calculations to use many more processors.
"Doing so seems to already provide a four-time speed-up with great efficiency. That means, I can be four times as ambitious for my cloud-resolving models," he said. "I'm really optimistic that this dream of regionalizing and MPI decomposing is leading to a totally different landscape of what's possible."
Machine learning clouds Pritchard sees another promising approach in machine learning, which his team has been exploring since 2017. "I've been very provoked by how performantly a dumb sheet of neurons can reproduce these partial differential equations," Pritchard said.
Pritchard's research and new approach is made possible in part by the NSF-funded Frontera supercomputer at TACC. The fastest university supercomputer in the world, Pritchard can run his models on Frontera at a time and length-scale accessible only on a handful of systems in the U.S. and test their potential for cloud modeling.
In a paper submitted last fall, Pritchard, lead author Tom Beucler, of UCI, and others describe a machine learning approach that successfully predicts atmospheric conditions even in climate regimes it was not trained on, where others have struggled to do so.
This "climate invariant" model incorporates physical knowledge of climate processes into the machine learning algorithms. Their study—which used Stampede2 at TACC, Cheyenne at the National Center for Atmospheric Research, and Expanse at the San Diego Supercomputer Center—showed the machine learning method can maintain high accuracy across a wide range of climates and geographies.
"If machine learning high-resolution cloud physics ever succeeded, it would transform everything about how we do climate simulations," Pritchard said. "I'm interested in seeing how reproducibly and reliably the machine learning approach can succeed in complex settings."
Pritchard is well-positioned to do so. He is on the Executive Committee of the NSF Center for Learning the Earth with Artificial Intelligence and Physics, or LEAP—a new Science and Technology Center, funded by NSF in 2021 directed by his long-time collaborator on this topic, Professor Pierre Gentine. LEAP brings together climate and data scientists to narrow the range of uncertainty in climate modeling, providing more precise and actionable climate projections that achieve immediate societal impact.
"All of the research I've done before is what I would call 'throughput-limited.'" Pritchard said. "My job was to produce 10- to 100-year simulations. That constrained all my grid choices. However, if the goal is to produce short simulations to train machine learning models, that's a different landscape."
Pritchard hopes to soon use the results of his 50 meter embedded models to start building up a large training library. "It's a really nice dataset to do machine learning on."
But will AI mature fast enough? Time is of the essence to figure out the destiny of clouds.
"If those clouds shrink away, like ice sheets will, exposing darker surfaces, that will amplify global warming and all the hazards that come with it. But if they do the opposites of ice sheets and thicken up, which they could, that's less hazardous. Some have estimated this as a multi-trillion dollar issue for society. And this has been in question for a long time," Pritchard said.
Simulation by simulation, federally-funded supercomputers are helping Pritchard and others approach the answer to this critical question.
"I'm torn between genuine gratitude for the U.S. national computing infrastructure, which is so incredible at helping us develop and run climate models," Pritchard said, "and feeling that we need a Manhattan Project level of new federal funding and interagency coordination to actually solve this problem."