Quando os cientistas precisam acessar os arquivos armazenados para realizar análises, um longo braço robótico desce do teto, seleciona uma fita, e transfere os dados que armazena para um disco rígido. Crédito:Reidar Hahn, Fermilab
No Grande Colisor de Hádrons do CERN, até 40 milhões de colisões de partículas ocorrem no intervalo de um único segundo dentro dos mais de 80 milhões de canais de detecção do detector de partículas CMS. Essas colisões criam uma enorme pegada digital, mesmo depois que os computadores os separam dos dados mais significativos. O simples ato de recuperar informações pode significar a luta contra gargalos.
Físicos CMS do Laboratório Nacional do Acelerador Fermi do Departamento de Energia dos EUA, que armazena uma grande parte dos dados do LHC, agora estão experimentando o uso de NVMe, ou memória não volátil expressa, tecnologia de estado sólido para determinar a melhor maneira de acessar arquivos armazenados quando os cientistas precisam recuperá-los para análise.
O problema com terabytes
Os resultados do experimento CMS no CERN têm o potencial de ajudar a responder algumas das maiores questões abertas da física, por exemplo, por que há mais matéria do que antimatéria no universo e se há mais de três dimensões físicas.
Antes que os cientistas possam responder a essas perguntas, Contudo, eles precisam acessar os dados de colisão registrados pelo detector CMS, grande parte da qual foi construída no Fermilab. O acesso aos dados não é uma tarefa trivial. Sem remoção de dados online, o LHC geraria 40 terabytes de dados por segundo, o suficiente para preencher os discos rígidos de 80 laptops comuns. Um processo de seleção automatizado mantém apenas o importante, colisões interessantes, reduzindo o número de eventos salvos de 40 milhões por segundo para apenas 1, 000
"Nos preocupamos apenas com uma fração dessas colisões, então temos uma sequência de critérios de seleção que decidem quais manter e quais descartar em tempo real, "disse o cientista do Fermilab Bo Jayatilaka, quem está liderando o projeto NVMe.
Ainda, mesmo com poda seletiva, dezenas de milhares de terabytes de dados apenas do detector CMS precisam ser armazenados a cada ano. Não apenas isso, mas para garantir que nenhuma informação seja perdida ou destruída, duas cópias de cada arquivo devem ser salvas. Uma cópia é armazenada em sua totalidade no CERN, enquanto a outra cópia é dividida entre instituições parceiras em todo o mundo. O Fermilab é a principal instalação de armazenamento designada nos EUA para o experimento CMS, com cerca de 40% dos arquivos de dados do experimento armazenados em fita.
Uma solução de estado sólido
O Centro de Computação Feynman no Fermilab abriga três grandes bibliotecas de dados preenchidas com fileiras e mais fileiras de fitas magnéticas que armazenam dados dos próprios experimentos do Fermilab, bem como do CMS. Se você fosse combinar toda a capacidade de armazenamento em fita do Fermilab, você teria aproximadamente a capacidade de armazenar o equivalente a 13, 000 anos de imagens de TV HD.
“Temos racks cheios de servidores com discos rígidos, e eles são o meio de armazenamento primário que os cientistas estão realmente lendo e gravando dados de e para, "Jayatilaka disse.
Mas os discos rígidos - que têm sido usados como dispositivos de armazenamento em computadores nos últimos 60 anos - são limitados na quantidade de dados que podem carregar nos aplicativos em um determinado momento. Isso ocorre porque eles carregam dados recuperando-os de discos giratórios, que é o único ponto de acesso para essas informações. Os cientistas estão investigando maneiras de implementar novos tipos de tecnologia para ajudar a acelerar o processo.
Para esse fim, O Fermilab instalou recentemente um único rack de servidores cheio de drives NVMe de estado sólido em seu Feynman Computing Center para acelerar as análises de física de partículas.
Em uma tentativa de acelerar as análises em pesquisas de física de alta energia, O Fermilab instalou recentemente um único rack de servidores cheio de drives de estado sólido chamado NVMe. Crédito:Bo Jayatilaka, Fermilab
Geralmente, drives de estado sólido usam circuitos elétricos compactos para transferir dados rapidamente. NVMe é um tipo avançado de unidade de estado sólido que pode lidar com até 4, 000 megabytes por segundo. Para colocar isso em perspectiva, os limites médios do disco rígido em cerca de 150 megabytes por segundo, tornando o estado sólido a escolha óbvia se a velocidade for seu objetivo principal.
Mas os discos rígidos ainda não foram relegados à antiguidade. O que falta em velocidade, eles compensam em capacidade de armazenamento. Atualmente, o limite médio de armazenamento em unidades de estado sólido é de 500 gigabytes, que é a quantidade mínima de armazenamento que você normalmente encontra disponível em discos rígidos modernos. Determinar se o Fermilab deve ou não substituir mais armazenamento de memória do disco rígido por unidades de estado sólido exigirá, portanto, uma análise cuidadosa de custos e benefícios.
Fazendo uma análise
Quando os pesquisadores analisam seus dados usando grandes servidores de computador ou supercomputadores, eles normalmente fazem isso recuperando sequencialmente porções desses dados do armazenamento, uma tarefa adequada para discos rígidos.
"Até agora, conseguimos usar discos rígidos em física de alta energia porque tendemos a lidar com milhões de eventos analisando cada evento um de cada vez, "Jayatilaka disse." Então, a qualquer momento, você está pedindo apenas alguns dados de cada disco rígido individual. "
Mas novas técnicas estão mudando a maneira como os cientistas analisam seus dados. Aprendizado de máquina, por exemplo, está se tornando cada vez mais comum na física de partículas, especialmente para o experimento CMS, onde essa tecnologia é responsável pelo processo de seleção automatizado que mantém apenas a pequena fração dos dados que os cientistas têm interesse em estudar.
Mas, em vez de acessar pequenas porções de dados, algoritmos de aprendizado de máquina precisam acessar a mesma parte dos dados repetidamente - sejam eles armazenados em um disco rígido ou em uma unidade de estado sólido. Isso não seria um grande problema se houvesse apenas alguns processadores tentando acessar esse ponto de dados, mas em cálculos de física de alta energia, existem milhares de processadores competindo para acessar esse ponto de dados simultaneamente.
Isso pode causar rapidamente gargalos e velocidades lentas ao usar discos rígidos tradicionais. O resultado final é tempos de computação mais lentos.
Os pesquisadores do Fermilab estão atualmente testando a tecnologia NVMe por sua capacidade de reduzir o número desses gargalos de dados.
O futuro da computação no Fermilab
O armazenamento do Fermilab e o poder de computação são muito mais do que apenas uma potência para o experimento CMS. O esforço de P&D de computação do CMS também está estabelecendo as bases para o sucesso do próximo programa High-Luminosity LHC e permitindo o desenvolvimento internacional, Experimento Deep Underground Neutrino hospedado pelo Fermilab, ambos começarão a coletar dados no final da década de 2020.
O trabalho de Jayatilaka e de sua equipe também permitirá que os físicos priorizem onde as unidades NVMe devem estar localizadas principalmente, seja no Fermilab ou nas instalações de armazenamento de outras instituições parceiras do LHC.
Com os novos servidores em mãos, a equipe está explorando como implantar a nova tecnologia de estado sólido na infraestrutura de computação existente no Fermilab.