Novo modelo de IA:um salto para a ciência autônoma dos materiais
O novo modelo de IA do PNNL para ciência de materiais pode identificar padrões em imagens de microscópio eletrônico sem orientação humana. Crédito:Cortland Johnson | Laboratório Nacional do Noroeste do Pacífico A ciência dos materiais permite tecnologias de ponta, desde carros leves e computadores potentes até baterias de alta capacidade e naves espaciais duráveis. Mas para desenvolver materiais para essas aplicações, eles precisam ser analisados com exatidão através de inúmeras lentes microscópicas – um processo difícil e demorado.
Um novo modelo de inteligência artificial (IA) desenvolvido no Pacific Northwest National Laboratory (PNNL) pode identificar padrões em imagens de microscópio eletrônico de materiais sem exigir intervenção humana, permitindo uma ciência de materiais mais precisa e consistente. Também remove uma barreira para a experimentação autônoma em microscópios eletrônicos – um componente importante dos chamados “laboratórios autônomos”.
“Fazemos muitas ciências de materiais diferentes no laboratório, seja desenvolvendo novos materiais para catalisadores, armazenamento de energia ou eletrônicos”, disse Steven Spurgeon, cientista sênior de materiais do PNNL que trabalha para aplicar IA na ciência de materiais há muitos anos. .
"Também trabalhamos muito para entender como os materiais evoluem em diferentes ambientes. Se você colocar, por exemplo, sensores em um reator nuclear ou em uma espaçonave, eles ficarão expostos a ambientes de alta radiação, levando à degradação ao longo do tempo. tempo."
Compreender essa degradação, por sua vez, ajuda os pesquisadores a projetar materiais melhores.
Normalmente, para treinar um modelo de IA para compreender um fenômeno como os danos causados pela radiação, os pesquisadores produziriam meticulosamente um conjunto de dados de treinamento rotulados manualmente, rastreando manualmente as regiões danificadas pela radiação em imagens de microscópio eletrônico. Esse conjunto de dados rotulado manualmente seria então usado para treinar um modelo de IA, que identificaria as características compartilhadas dessas regiões identificadas por humanos e procuraria identificar regiões semelhantes em imagens não rotuladas.
Rotular conjuntos de dados manualmente não é o ideal. É um processo demorado – mas, além disso, os humanos são mais propensos a inconsistências e imprecisões na sua rotulagem, e não são tão bons a considerar simultaneamente (e rotular de forma imparcial) diferentes lentes (modalidades) da mesma amostra.
“Normalmente, o ser humano faz avaliações subjetivas dos dados”, disse Spurgeon. “E simplesmente não podemos fazer isso com os tipos de hardware que estamos construindo agora”.
O uso de dados rotulados também requer um ser humano “no circuito”, pausando o processo de experimentação enquanto os humanos interpretam ou rotulam os dados de uma nova imagem de microscópio eletrônico.
A solução:um modelo não supervisionado capaz de analisar os dados sem envolver humanos.
Tirando as rodinhas
"O que queríamos fazer é criar uma abordagem não supervisionada para classificar imagens de microscópio eletrônico", disse Arman Ter-Petrosyan, pesquisador associado do PNNL. "E além do problema básico de classificação, queríamos encontrar maneiras de usar esses modelos para descrever diferentes interfaces de materiais."
A equipe começou com o modelo ResNet50 AI e um conjunto de dados preexistente de mais de 100.000 imagens de microscopia eletrônica não rotuladas, chamado MicroNet. Usando isso como base, eles ensinaram o modelo a dividir cada imagem do microscópio eletrônico em uma grade de pequenos “chips” e, em seguida, instruíram-no a calcular as semelhanças gerais entre os chips e atribuir-lhes pontuações de similaridade entre si. Grupos de chips mais semelhantes entre si são então classificados em “comunidades” que representam partes da imagem com características comparáveis.
O resultado é uma representação abstrata de padrões nos dados que podem então ser dispersos nas imagens do microscópio eletrônico e nas regiões codificadas por cores por suas respectivas comunidades – tudo isso sem a necessidade de um ser humano dizer ao modelo o que procurar.
Os pesquisadores têm aplicado o novo modelo para compreender os danos causados pela radiação em materiais usados em ambientes de alta radiação, como reatores nucleares. O modelo é capaz de “lascar” com precisão as áreas degradadas e classificar a imagem em comunidades que representam diferentes níveis de danos causados pela radiação.
“Esta é uma forma de pegar os dados e representar relações entre áreas que não estão necessariamente próximas umas das outras no material”, explicou Ter-Petrosyan.
Melhor que humano
A beleza do modelo, explicaram os pesquisadores, é que ele identifica essas comunidades com extraordinária consistência, produzindo as regiões delineadas de dados rotulados sem nenhum dos desvios mercuriais da rotulagem humana. Isto é útil não apenas para avaliar uma imagem, mas também para estabelecer métricas objetivas para descrever diferentes estados de materiais.
“Eu tenho um material perfeito; eu o irradio; ele começa a se decompor”, disse Spurgeon. "Como descrevo esse processo para poder projetar melhor esse material para uma aplicação específica? Nosso problema é que temos os dados - já os temos há muito tempo - e somos capazes de coletá-los rotineiramente, mas não estamos usando isso para divulgar esses descritores."