Crédito CC0:domínio público
Experimentos no Grande Colisor de Hádrons (LHC), o maior acelerador de partículas do mundo no laboratório europeu de física de partículas CERN, produz cerca de um milhão de gigabytes de dados a cada segundo. Mesmo após a redução e compressão, os dados acumulados em apenas uma hora são semelhantes ao volume de dados que o Facebook coleta em um ano inteiro - muitos para armazenar e analisar.
Felizmente, os físicos de partículas não precisam lidar com todos esses dados sozinhos. Eles se associam a uma forma de inteligência artificial chamada aprendizado de máquina, que aprende como fazer análises complexas por conta própria.
Um grupo de pesquisadores, incluindo cientistas do Laboratório Nacional do Acelerador SLAC do Departamento de Energia e do Laboratório Nacional do Acelerador Fermi, resumir as aplicações atuais e as perspectivas futuras do aprendizado de máquina em física de partículas em um artigo publicado hoje em Natureza .
"Comparado a um algoritmo de computador tradicional que projetamos para fazer uma análise específica, projetamos um algoritmo de aprendizado de máquina para descobrir por si mesmo como fazer várias análises, potencialmente economizando incontáveis horas de trabalho de design e análise, "diz o co-autor Alexander Radovic do College of William &Mary, que trabalha no experimento de neutrino NOvA.
Peneirando big data
Para lidar com os gigantescos volumes de dados produzidos em experimentos modernos como os do LHC, os pesquisadores aplicam o que chamam de "gatilhos" - hardware e software dedicados que decidem em tempo real quais dados manter para análise e quais dados jogar fora.
No LHCb, um experimento que poderia esclarecer por que há muito mais matéria do que antimatéria no universo, algoritmos de aprendizado de máquina tomam pelo menos 70 por cento dessas decisões, diz o cientista do LHCb Mike Williams, do Instituto de Tecnologia de Massachusetts, um dos autores do resumo da Nature. "O aprendizado de máquina desempenha um papel em quase todos os aspectos de dados do experimento, dos gatilhos para a análise dos dados restantes, " ele diz.
O aprendizado de máquina tem se mostrado extremamente bem-sucedido na área de análise. Os gigantescos detectores ATLAS e CMS no LHC, que permitiu a descoberta do bóson de Higgs, cada um tem milhões de elementos sensores cujos sinais precisam ser colocados juntos para obter resultados significativos.
"Esses sinais constituem um espaço de dados complexo, "diz Michael Kagan do SLAC, que trabalha no ATLAS e também foi autor da revista Nature. "Precisamos entender a relação entre eles para chegar a conclusões, por exemplo, que uma certa trilha de partículas no detector foi produzida por um elétron, um fóton ou outra coisa. "
Os experimentos com Neutrino também se beneficiam do aprendizado de máquina. Nova, que é administrado pelo Fermilab, estuda como os neutrinos mudam de um tipo para outro à medida que viajam pela Terra. Essas oscilações de neutrino poderiam revelar a existência de um novo tipo de neutrino que algumas teorias preveem ser uma partícula de matéria escura. Os detectores da NOvA estão observando as partículas carregadas produzidas quando os neutrinos atingem o material do detector, e algoritmos de aprendizado de máquina os identificam.
De aprendizado de máquina a aprendizado profundo
Desenvolvimentos recentes em aprendizado de máquina, frequentemente chamado de "aprendizado profundo, "prometem levar as aplicações em física de partículas ainda mais longe. O aprendizado profundo normalmente se refere ao uso de redes neurais:algoritmos de computador com uma arquitetura inspirada na densa rede de neurônios do cérebro humano.
Essas redes neurais aprendem por conta própria como realizar certas tarefas de análise durante um período de treinamento no qual são mostrados dados de amostra, como simulações, e contou como eles se saíram bem.
Até recentemente, o sucesso das redes neurais era limitado porque treiná-las costumava ser muito difícil, diz o co-autor Kazuhiro Terao, um pesquisador do SLAC trabalhando no experimento de neutrino MicroBooNE, que estuda as oscilações de neutrino como parte do programa de neutrino de linha de base curta do Fermilab e se tornará um componente do futuro Deep Underground Neutrino Experiment (DUNE) na Long-Baseline Neutrino Facility (LBNF). "Essas dificuldades nos limitaram a redes neurais com apenas algumas camadas de profundidade, "ele diz." Graças aos avanços em algoritmos e hardware de computação, agora sabemos muito melhor como construir e treinar redes mais capazes com centenas ou milhares de camadas de profundidade. "
Muitos dos avanços no aprendizado profundo são impulsionados pelos aplicativos comerciais dos gigantes da tecnologia e pela explosão de dados que eles geraram nas últimas duas décadas. "Nova, por exemplo, usa uma rede neural inspirada na arquitetura do GoogleNet, "Radovic diz." Isso melhorou o experimento de maneiras que, de outra forma, só poderiam ser alcançadas com a coleta de 30% a mais de dados. "
Um terreno fértil para inovação
Algoritmos de aprendizado de máquina se tornam mais sofisticados e ajustados a cada dia, abrindo oportunidades sem precedentes para resolver problemas de física de partículas.
Muitas das novas tarefas para as quais eles podem ser usados estão relacionadas à visão computacional, Kagan diz. "É semelhante ao reconhecimento facial, exceto que na física de partículas, as características da imagem são mais abstratas do que orelhas e narizes. "
Alguns experimentos como NOvA e MicroBooNE produzem dados que são facilmente traduzidos em imagens reais, e a IA pode ser prontamente usada para identificar recursos neles. Em experimentos do LHC, por outro lado, primeiro, as imagens precisam ser reconstruídas a partir de um conjunto obscuro de dados gerados por milhões de elementos sensores.
"Mas mesmo que os dados não se pareçam com imagens, ainda podemos usar métodos de visão computacional se formos capazes de processar os dados da maneira certa, "Radovic diz.
Uma área em que essa abordagem pode ser muito útil é a análise de jatos de partículas produzidos em grande número no LHC. Os jatos são sprays estreitos de partículas cujas trilhas individuais são extremamente difíceis de separar. A tecnologia de visão computacional pode ajudar a identificar recursos em jatos.
Outra aplicação emergente de aprendizado profundo é a simulação de dados de física de partículas que prevêem, por exemplo, o que acontece em colisões de partículas no LHC e pode ser comparado com os dados reais. Simulações como essas são normalmente lentas e requerem um grande poder de computação. AI, por outro lado, poderia fazer simulações muito mais rápido, potencialmente complementando a abordagem tradicional.
"Há apenas alguns anos, ninguém teria pensado que redes neurais profundas podem ser treinadas para 'alucinar' dados de ruído aleatório, "Kagan diz." Embora este seja um trabalho muito inicial, é muito promissor e pode ajudar nos desafios de dados do futuro. "
Beneficiando-se do ceticismo saudável
Apesar de todos os avanços óbvios, entusiastas do aprendizado de máquina frequentemente enfrentam ceticismo de seus parceiros de colaboração, em parte porque os algoritmos de aprendizado de máquina funcionam principalmente como "caixas pretas" que fornecem muito poucas informações sobre como chegaram a uma determinada conclusão.
"O ceticismo é muito saudável, "Williams diz." Se você usar o aprendizado de máquina para acionadores que descartam dados, como fazemos no LHCb, então você deve ser extremamente cauteloso e definir a fasquia muito alta. "
Portanto, estabelecer o aprendizado de máquina em física de partículas requer esforços constantes para entender melhor o funcionamento interno dos algoritmos e fazer verificações cruzadas com dados reais sempre que possível.
"Devemos sempre tentar entender o que um algoritmo de computador faz e sempre avaliar seu resultado, "Terao diz." Isso é verdade para todos os algoritmos, não apenas aprendizado de máquina. Então, ser cético não deve impedir o progresso. "
O rápido progresso fez com que alguns pesquisadores sonhassem com o que poderia se tornar possível em um futuro próximo. "Hoje, estamos usando o aprendizado de máquina principalmente para encontrar recursos em nossos dados que podem nos ajudar a responder a algumas de nossas perguntas, "Terão diz." Daqui a dez anos, algoritmos de aprendizado de máquina podem ser capazes de fazer suas próprias perguntas de forma independente e reconhecer quando encontram uma nova física. "