• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • TACC desenvolve software perfeito para inovação científica
    p Visualização de fluxo em canal turbulento produzida usando GraviT. Crédito:Visualização:Texas Advanced Computing Center. Dados:ICES, A Universidade do Texas em Austin.

    p Grande, ciência impactante requer todo um ecossistema tecnológico para progredir. Isso inclui sistemas de computação de ponta, armazenamento de alta capacidade, redes de alta velocidade, potência, resfriamento ... a lista é infinita. p Criticamente, também requer software de última geração:programas que funcionam em conjunto para permitir que cientistas e engenheiros respondam a perguntas difíceis, compartilhar suas soluções, e conduzir pesquisas com a máxima eficiência e o mínimo de dor.

    p Para alimentar este modo crítico de progresso científico, em 2012, a NSF estabeleceu o programa de infraestrutura de software para inovação sustentada (SI2), com o objetivo de transformar inovações em pesquisa e educação em recursos de software sustentados que são parte integrante da ciberinfraestrutura.

    p "A descoberta científica e a inovação estão avançando ao longo de caminhos fundamentalmente novos abertos pelo desenvolvimento de software cada vez mais sofisticado, "a National Science Foundation (NSF) escreveu na solicitação do programa SI2." O software também é diretamente responsável pelo aumento da produtividade científica e pelo aprimoramento significativo das capacidades dos pesquisadores. "

    p Com cinco prêmios SI2 atuais, e funções colaborativas em vários outros, o Texas Advanced Computing Center (TACC) está entre os líderes nacionais no desenvolvimento de software para computação científica. Os investigadores principais da TACC apresentarão seu trabalho de 30 de abril a 2 de maio no Encontro de investigadores principais da NSF SI2 de 2018 em Washington, D.C.

    p "Parte da missão do TACC é aumentar a produtividade dos pesquisadores que usam nossos sistemas, "disse Bill Barth, Diretor de computação de alto desempenho da TACC e ex-bolsista SI2. "O programa SI2 nos ajudou a fazer isso, apoiando os esforços para desenvolver novas ferramentas e estendendo as ferramentas existentes com desempenho adicional e recursos de usabilidade."

    p De estruturas para visualização em grande escala a ferramentas de paralelização automática e muito mais, O software desenvolvido pelo TACC está mudando a forma como os pesquisadores computam no futuro.

    p Ferramenta de paralelização interativa

    p O poder dos supercomputadores reside principalmente em sua capacidade de resolver equações matemáticas em paralelo. Pegue um problema difícil, dividi-lo em suas partes constituintes, Resolva cada parte individualmente e reúna as respostas novamente - esta é a computação paralela em sua essência. Contudo, a tarefa de organizar o problema para que possa ser resolvido por um supercomputador não é fácil, mesmo para cientistas computacionais experientes.

    p Ritu Arora, um cientista pesquisador da TACC, tem trabalhado para diminuir a barreira da computação paralela, desenvolvendo uma ferramenta que pode transformar um código serial, que só pode usar um único processador por vez, em um código paralelo que pode usar dezenas a milhares de processadores. A ferramenta analisa um aplicativo serial, solicita informações adicionais do usuário, aplica heurísticas integradas, e gera uma versão paralela do aplicativo serial de entrada.

    p Arora e seus colaboradores implantaram a versão atual do IPT na nuvem para que os pesquisadores possam utilizá-la de maneira conveniente por meio de um navegador da web. Os pesquisadores podem gerar versões paralelas de seu código de forma semi-automática e testar o código paralelo para precisão e desempenho nos recursos TACC e XSEDE, incluindo Stampede2, Lonestar5, e cometa.

    p "A magnitude do impacto social do IPT é uma função direta da importância do HPC em STEM e em domínios não tradicionais emergentes, e os grandes desafios que os especialistas e estudantes do domínio enfrentam ao escalar a curva de aprendizado da programação paralela, "Disse Arora." Além de reduzir o tempo de desenvolvimento e de execução dos aplicativos em plataformas HPC, O IPT diminuirá o uso de energia e maximizará o desempenho fornecido pelas plataformas HPC por meio de sua capacidade de gerar código híbrido. "

    p O GraviT permitiu que os pesquisadores produzissem visualizações de traçado de raios usando dados produzidos no Enzo, um código de simulação projetado para ricos, cálculos astrofísicos hidrodinâmicos multifísicos. Crédito:Universidade do Texas em Austin

    p Como um exemplo das capacidades do IPT, Arora aponta para um esforço recente para paralelizar uma aplicação de dinâmica molecular (MD). Ao paralelizar o aplicativo serial usando OpenMP em um alto nível de abstração - ou seja, sem que o usuário conhecesse a sintaxe de baixo nível do OpenMP - eles alcançaram um aumento de 88% no código.

    p Eles também quantificaram o impacto do IPT em termos de produtividade do usuário, medindo o número de linhas de código que um pesquisador precisa escrever durante o processo de paralelizar um aplicativo manualmente em comparação com o uso do IPT.

    p "Em nossos casos de teste, O IPT aumentou a produtividade do usuário em mais de 90%, em comparação com escrever o código manualmente, e gerou o código paralelo que está dentro de 10% do desempenho do melhor código paralelo escrito à mão disponível para esses aplicativos, "disse Arora." Estamos muito felizes com o sucesso até agora. "

    p A TACC está estendendo o IPT para suportar tipos adicionais de aplicativos seriais, bem como aplicativos que exibem computação irregular e padrões de comunicação.

    p (Assista a um vídeo de demonstração do IPT em que o TACC mostra o processo de paralelização de um aplicativo de dinâmica molecular com o modelo de programação OpenMP.)

    p GraviT

    p A visualização científica - o processo de transformar dados brutos em imagens interpretáveis ​​- é um aspecto fundamental da pesquisa. Contudo, pode ser desafiador quando você está tentando visualizar conjuntos de dados em escala de petabyte espalhados entre muitos nós de um cluster de computação. Ainda mais quando você está tentando usar métodos de visualização avançados como traçado de raio - uma técnica para gerar uma imagem traçando o caminho da luz como pixels em um plano de imagem e simulando os efeitos de seus encontros com objetos virtuais.

    p Para resolver este problema, Paul Navratil, diretor de visualização da TACC, liderou um esforço para criar GraviT, um escalável, estrutura de ray tracing com memória distribuída e biblioteca de software para aplicativos que abrangem dados tão grandes que não podem residir na memória de um único nó de computação. Colaboradores do projeto incluem Hank Childs (University of Oregon), Chuck Hansen (Universidade de Utah), Matt Turk (National Center for Supercomputing Applications) and Allen Malony (ParaTools).

    p GraviT works across a variety of hardware platforms, including the Intel Xeon processors and NVIDIA GPUs. It can also function in heterogeneous computing environments, por exemplo, hybrid CPU and GPU systems. GraviT has been successfully integrated into the GLuRay OpenGL-based ray tracing interface, the VisIt visualization toolkit, the VTK visualization toolkit, and the yt visualization framework.

    p "High-fidelity rendering techniques like ray tracing improve visual analysis by providing the same spatial cues of light and shadow that we see in the world around us, but these are challenging to use in distributed contexts, " said Navratil. "GraviT enables these techniques to be used efficiently across distributed computing resources, unlocking their potential for large scale analysis and to be used in situ, where data is not written to disk prior to analysis."

    p (The GraviT source code is available at the TACC GitHub site ).

    p A diagram showing how the Abaco "Actor" model works. Credit:University of Texas at Austin

    p Abaco

    p The increased availability of data has enabled entirely new kinds of analyses to emerge, yielding answers to many important questions. Contudo, these analyses are complex and frequently require advanced computer science expertise to run correctly.

    p Joe Stubbs, who leads TACC's Cloud and Interactive Computing (CIC) group, is working on a project that simplifies how researchers create analysis tools that are reliable and scalable. The project, known as Abaco, adapts the "Actor" model, whereby software systems are designed as a collection of simple functions, which can then be provided as a cloud-based capability on high performance computing environments.

    p "Abaco significantly simplifies the way scientific software is developed and used, " said Stubbs. "Scientific software developers will find it much easier to design and implement a system. Avançar, scientists and researchers that use software will be able to easily compose collections of actors with pre-determined functionality in order to get the computation and data they need."

    p The Abaco API (application programming interface) combines technologies and techniques from cloud computing, including Linux Containers and the "functions-as-a-service" paradigm, with the Actor model for concurrent computation. Investigators addressing grand challenge problems in synthetic biology, earthquake engineering and food safety are already using the tool to advance their work. Stubbs is working to extend Abaco's ability to do data federation and discoverability, so Abaco programs can be used to build federated datasets consisting of separate datasets from all over the internet.

    p "By reducing the barriers to developing and using such services, this project will boost the productivity of scientists and engineers working on the problems of today, and better prepare them to tackle the new problems of tomorrow, " Stubbs said.

    p Expanding volunteer computing

    p Volunteer computing uses donated computing time on consumer devices such as home computers and smartphones to conduct scientific investigations. Early successes from this approach include the discovery of the structure of an enzyme involved in reproduction of HIV by FoldIt participants; and the detection of pulsars using Einstein@Home.

    p Volunteer computing can provide greater computing power, at lower cost, than conventional approaches such as organizational computing centers and commercial clouds, but participation in volunteer computing efforts is yet to reach its full potential.

    p TACC is partnering with the University of California at Berkeley and Purdue University to build new capabilities for BOINC (the most common software framework used for volunteer computing) to grow this promising mode of distributed computing. The project involves two complementary development efforts. Primeiro, it adds BOINC-based volunteer computing conduits to two major high-performance computing providers:TACC and nanoHUB, a web portal for nano science that provides computing capabilities. Desta maneira, the project benefits the thousands of scientists who use these facilities and creates technologies that make it easy for other HPC providers to add their own volunteer computing capability to their systems.

    p Segundo, the team will develop a unified interface for volunteer computing, tentatively called Science United, where donors can register to participate and scientists can market their volunteer computing projects to the public.

    p TACC is currently setting up a BOINC server on Jetstream and using containerization technologies, such as Docker and VirtualBox, to build and package popular applications that can run in high-throughput computing mode on the devices of volunteers. Initial applications being tested include AutoDock Vina, used for drug discovery, and OpenSees, used by the natural hazards community. Como uma próxima etapa, TACC will develop the plumbing required for selecting and routing qualified jobs from TACC resources to the BOINC server.

    p "By creating a huge pool of low-cost computing power that will benefit thousands of scientists, and increasing public awareness of and interest in science, the project plans to establish volunteer computing as a central and long-term part of the U.S. scientific cyber infrastructure, " said David Anderson, the lead principal investigator on the project from UC Berkeley.


    © Ciência https://pt.scienceaq.com