• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Cientistas da IBM demonstram computação in-memory com 1 milhão de dispositivos para aplicativos em IA

    Um milhão de processos são mapeados para os pixels de um esboço em preto e branco de 1000 × 1000 pixels de Alan Turing. Os pixels são ligados e desligados de acordo com os valores binários instantâneos dos processos. Crédito:Nature Communications

    "Computação na memória" ou "memória computacional" é um conceito emergente que usa as propriedades físicas dos dispositivos de memória para armazenar e processar informações. Isso é contrário aos sistemas e dispositivos atuais de von Neumann, como computadores desktop padrão, laptops e até mesmo celulares, que transporta dados de um lado para outro entre a memória e a unidade de computação, tornando-os mais lentos e menos eficientes em termos de energia.

    Hoje, A IBM Research está anunciando que seus cientistas demonstraram que um algoritmo de aprendizado de máquina não supervisionado, rodando em um milhão de dispositivos de memória de mudança de fase (PCM), encontrou correlações temporais com sucesso em fluxos de dados desconhecidos. Quando comparados a computadores clássicos de última geração, espera-se que esta tecnologia de protótipo produza melhorias 200x em velocidade e eficiência energética, tornando-o altamente adequado para permitir ultra-denso, baixo consumo de energia, e sistemas de computação massivamente paralelos para aplicações em IA.

    Os pesquisadores usaram dispositivos PCM feitos de liga de telureto de germânio e antimônio, que é empilhado e ensanduichado entre dois eletrodos. Quando os cientistas aplicam uma minúscula corrente elétrica ao material, eles aquecem, que altera seu estado de amorfo (com um arranjo atômico desordenado) para cristalino (com uma configuração atômica ordenada). Os pesquisadores da IBM usaram a dinâmica de cristalização para realizar cálculos no local.

    "Este é um passo importante em nossa pesquisa da física da IA, que explora novos materiais de hardware, dispositivos e arquiteturas, "diz o Dr. Evangelos Eleftheriou, um IBM Fellow e co-autor do artigo. "À medida que as leis de escala do CMOS são quebradas devido aos limites tecnológicos, um afastamento radical da dicotomia processador-memória é necessário para contornar as limitações dos computadores de hoje. Dada a simplicidade, alta velocidade e baixa energia de nossa abordagem de computação in-memory, é notável que nossos resultados sejam tão semelhantes à nossa abordagem clássica de referência executada em um computador Von Neumann. "

    Crédito:IBM Blog Research

    Os detalhes são explicados em seu artigo publicado hoje no jornal de revisão por pares Nature Communications . Para demonstrar a tecnologia, os autores escolheram dois exemplos baseados em tempo e compararam seus resultados com métodos tradicionais de aprendizado de máquina, como cluster k-means:

    • Dados Simulados:um milhão de processos binários (0 ou 1) aleatórios organizados em uma grade 2-D com base em 1000 x 1000 pixels, Preto e branco, desenho do perfil do famoso matemático britânico Alan Turing. Os cientistas da IBM então fizeram os pixels piscarem e apagarem com a mesma taxa, mas os pixels pretos ativados e desativados de maneira fracamente correlacionada. Isso significa que quando um pixel preto pisca, há uma probabilidade ligeiramente maior de que outro pixel preto também pisque. Os processos aleatórios foram atribuídos a um milhão de dispositivos PCM, e um algoritmo de aprendizagem simples foi implementado. A cada piscar, a matriz PCM aprendeu, e os dispositivos PCM correspondentes aos processos correlacionados foram para um estado de alta condutância. Desta maneira, o mapa de condutância dos dispositivos PCM recria o desenho de Alan Turing. (veja a imagem acima)
    • Dados do mundo real:dados reais de precipitação, coletados durante um período de seis meses de 270 estações meteorológicas nos EUA em intervalos de uma hora. Se choveu dentro de uma hora, foi rotulado como "1" e se não foi "0". O clustering k-means clássico e a abordagem de computação in-memory concordaram na classificação de 245 das 270 estações meteorológicas. A computação in-memory classificou 12 estações como não correlacionadas que foram marcadas como correlacionadas pela abordagem de agrupamento k-means. De forma similar, a abordagem de computação in-memory classificou 13 estações como correlacionadas que foram marcadas como não correlacionadas pelo agrupamento k-means.

    "Até agora, a memória tem sido vista como um lugar onde simplesmente armazenamos informações. Mas, neste trabalho, nós mostramos conclusivamente como podemos explorar a física desses dispositivos de memória para também realizar um primitivo computacional de alto nível. O resultado da computação também é armazenado nos dispositivos de memória, e, nesse sentido, o conceito é vagamente inspirado em como o cérebro calcula ", disse o Dr. Abu Sebastian, memória exploratória e cientista de tecnologias cognitivas, IBM Research e principal autor do artigo.

    Uma ilustração esquemática do algoritmo de computação em memória. Crédito:IBM Research




    © Ciência https://pt.scienceaq.com