Crédito CC0:domínio público
Pela primeira vez, dados do LHCb, um grande experimento de física, será processado em uma fazenda de GPUs. Esta solução não é apenas muito mais barata, mas ajudará a diminuir o tamanho do cluster e processar dados em velocidades de até 40 Tbit / s. O artigo de pesquisa foi publicado em Computação e software para Big Science .
Uma força-tarefa interdisciplinar de pesquisadores de uma das maiores colaborações internacionais em física de alta energia LHC beleza no CERN sugeriu uma nova maneira de processar o enorme fluxo de dados do detector de partículas. A equipe é formada por pesquisadores das principais universidades europeias e americanas. A parte russa da equipe foi representada por HSE e Yandex School of data analysis. O principal objetivo da proposta é fornecer a colaboração com um robusto, solução eficiente e flexível que pode lidar com o aumento do fluxo de dados esperado durante o próximo período de coleta de dados. Esta solução não é apenas muito mais barata, mas ajudará a diminuir o tamanho do cluster e processar dados em velocidades de até 40 Tbit / s.
O LHC e o LHCb em particular foram criados com o propósito de pesquisar "novas físicas, "algo além do Modelo Padrão. Embora a pesquisa tenha alcançado um sucesso moderado, esperanças de encontrar partículas completamente novas, como WIMPs, Falhou. Muitos físicos acreditam que, para alcançar novos resultados, as estatísticas sobre a colisão de partículas no LHC devem ser aumentadas consideravelmente. Mas isso não requer apenas novos equipamentos de aceleração - as atualizações estão em andamento e devem ser concluídas até 2021-2022 - mas também novos sistemas para processar dados de colisão de partículas. Para detectar os eventos no LHCb como registrados corretamente, a trilha reconstruída deve corresponder àquela modelada pelo algoritmo. Se não houver correspondência, os dados são excluídos. Cerca de 70% de todas as colisões no LHC são excluídas desta forma, o que significa que capacidades de cálculo sérias são necessárias para esta análise preliminar.
Um grupo de pesquisadores, incluindo Andrey Ustyuzhanin, Mikhail Belous e Sergei Popov da HSE University, apresentou um novo artigo com um algoritmo de um conjunto de GPUs como um primeiro gatilho de alto nível (HLT1) para registro e detecção de eventos no detector LHCb. O conceito foi nomeado Allen, depois de Frances Allen, pesquisadora em teoria de sistemas computacionais e a primeira mulher a receber o Prêmio Turing.
Ao contrário dos gatilhos anteriores, o novo sistema transfere dados de CPUs para GPUs. Isso pode incluir ambas as soluções profissionais (como GPUs Tesla, as mais avançadas do mercado) e GPUs "gamer" comuns da NVIDIA ou AMD. Graças a isto, o gatilho Allen não depende de um fornecedor de equipamento específico, o que facilita a criação e reduz custos. Com os sistemas de mais alto desempenho, o gatilho pode processar dados em até 40 Tbit / s.
Em um esquema padrão, as informações sobre todos os eventos vão do detector para um gatilho de nível zero (L0), que consiste em chips programáveis (FPGA). Eles realizam a seleção no nível básico. No novo esquema, não haverá gatilho L0. Os dados vão imediatamente para a fazenda, onde cada uma das 300 GPUs processa simultaneamente milhões de eventos por segundo.
Após o registro e detecção do evento inicial, apenas os dados selecionados com informações físicas valiosas vão para processadores x86 comuns de gatilhos de segundo nível (HLT2). Isso significa que a principal carga computacional relacionada à classificação de eventos acontece na fazenda por meio de GPUs excepcionalmente.
Essa estrutura ajudará a resolver as tarefas de análise e seleção de eventos de forma mais eficaz:as GPUs são inicialmente criadas como um sistema multicanal com vários núcleos. E embora as CPUs sejam voltadas para o processamento consecutivo de informações, As GPUs são usadas para cálculos simultâneos massivos. Além disso, eles têm um conjunto de tarefas mais específico e limitado, o que aumenta o desempenho.
De acordo com Denis Derkach, chefe da equipe LHCb na HSE University, graças à decisão de não usar CPUs, o novo farm é adequado para a futura coleta de dados do LHCb. Além disso, Allen custará significativamente menos do que um sistema semelhante em CPUs. Também será mais simples do que os sistemas de registro de eventos anteriores em aceleradores.
O benefício de longo prazo da nova abordagem é particularmente importante. Equipamentos para muitos experimentos de física estão sendo atualizados em todo o mundo. E virtualmente cada atualização leva a um fluxo crescente de informações processadas. Anteriormente, experimentos não usaram sistemas baseados em GPUs excepcionalmente. Mas as vantagens de Allen - uma arquitetura mais simples e custo mais baixo - são tão óbvias que essa abordagem, sem dúvida, irá além do experimento LHCb.