• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Este novo chip de computador é ideal para IA

    A arquitetura de computação em memória livre de transistores permite três tarefas computacionais essenciais para aplicações de IA:pesquisa, armazenamento e operações de rede neural. Crédito:Nano Letras (2022). DOI:10.1021/acs.nanolett.2c03169

    A inteligência artificial apresenta um grande desafio para a arquitetura de computação convencional. Nos modelos padrão, o armazenamento de memória e a computação ocorrem em diferentes partes da máquina, e os dados devem ser movidos de sua área de armazenamento para uma CPU ou GPU para processamento.
    O problema com este design é que o movimento leva tempo. Muito tempo. Você pode ter a unidade de processamento mais poderosa do mercado, mas seu desempenho será limitado, pois ficará ocioso aguardando dados, um problema conhecido como "memory wall" ou "gargalo".

    Quando a computação supera a transferência de memória, a latência é inevitável. Esses atrasos se tornam problemas sérios ao lidar com as enormes quantidades de dados essenciais para aprendizado de máquina e aplicativos de IA.

    À medida que o software de IA continua a se desenvolver em sofisticação e a ascensão da Internet das Coisas, com muitos sensores, produz conjuntos de dados cada vez maiores, os pesquisadores se concentraram no redesenho de hardware para fornecer as melhorias necessárias em velocidade, agilidade e uso de energia.

    Uma equipe de pesquisadores da Escola de Engenharia e Ciências Aplicadas da Universidade da Pensilvânia, em parceria com cientistas do Sandia National Laboratories e do Brookhaven National Laboratory, apresentou uma arquitetura de computação ideal para IA.

    Co-liderado por Deep Jariwala, Professor Assistente no Departamento de Engenharia Elétrica e de Sistemas (ESE), Troy Olsson, Professor Associado em ESE, e Xiwen Liu, Ph.D. Candidato no Laboratório de Engenharia e Pesquisa de Dispositivos de Jarawala, o grupo de pesquisa contou com uma abordagem conhecida como computação em memória (CIM).

    Nas arquiteturas CIM, o processamento e o armazenamento ocorrem no mesmo local, eliminando o tempo de transferência e minimizando o consumo de energia. O novo design CIM da equipe, objeto de um estudo recente publicado em Nano Letters , é notável por ser completamente livre de transistores. Esse design está sintonizado exclusivamente com a maneira como os aplicativos de Big Data transformaram a natureza da computação.

    "Mesmo quando usados ​​em uma arquitetura de computação em memória, os transistores comprometem o tempo de acesso aos dados", diz Jariwala. "Eles exigem muita fiação no circuito geral de um chip e, portanto, usam tempo, espaço e energia além do que desejaríamos para aplicações de IA. A beleza de nosso design livre de transistores é que ele é simples, pequeno e rápido e requer muito pouca energia."

    O avanço não está apenas no projeto em nível de circuito. Esta nova arquitetura de computação baseia-se no trabalho anterior da equipe em ciência de materiais focado em um semicondutor conhecido como nitreto de alumínio com liga de escândio (AlScN). O AlScN permite a comutação ferroelétrica, cuja física é mais rápida e mais eficiente em termos de energia do que os elementos alternativos de memória não volátil.

    "Um dos principais atributos deste material é que ele pode ser depositado em temperaturas baixas o suficiente para ser compatível com as fundições de silício", diz Olsson. "A maioria dos materiais ferroelétricos requer temperaturas muito mais altas. As propriedades especiais do AlScN significam que nossos dispositivos de memória demonstrados podem ir no topo da camada de silício em uma pilha vertical heterointegrada. Pense na diferença entre um estacionamento de vários andares com capacidade para cem carros e um centenas de vagas de estacionamento individuais distribuídas em um único lote. Qual é mais eficiente em termos de espaço? O mesmo vale para informações e dispositivos em um chip altamente miniaturizado como o nosso. Essa eficiência é tão importante para aplicações que exigem restrições de recursos, como como dispositivos móveis ou vestíveis, como é para aplicativos que consomem muita energia, como data centers."

    Em 2021, a equipe estabeleceu a viabilidade do AlScN como uma potência de computação em memória. Sua capacidade de miniaturização, baixo custo, eficiência de recursos, facilidade de fabricação e viabilidade comercial demonstraram grandes avanços aos olhos da pesquisa e da indústria.

    No estudo mais recente que estreou o design livre de transistores, a equipe observou que seu ferrodiodo CIM pode ser capaz de funcionar até 100 vezes mais rápido do que uma arquitetura de computação convencional.

    Outras pesquisas na área usaram com sucesso arquiteturas de computação em memória para melhorar o desempenho de aplicativos de IA. No entanto, essas soluções têm sido limitadas, incapazes de superar o compromisso conflitante entre desempenho e flexibilidade. A arquitetura de computação usando matrizes de barra cruzada de memristor, um design que imita a estrutura do cérebro humano para suportar desempenho de alto nível em operações de rede neural, também demonstrou velocidades admiráveis.

    No entanto, as operações de rede neural, que usam camadas de algoritmos para interpretar dados e reconhecer padrões, são apenas uma das várias categorias-chave de tarefas de dados necessárias para a IA funcional. O design não é adaptável o suficiente para oferecer desempenho adequado em quaisquer outras operações de dados de IA.

    O design de ferrodiodo da equipe da Penn oferece flexibilidade inovadora que outras arquiteturas de computação em memória não oferecem. Ele alcança precisão superior, com desempenho igualmente bom em não uma, mas três operações de dados essenciais que formam a base de aplicativos de IA eficazes. Ele suporta armazenamento no chip, ou a capacidade de armazenar enormes quantidades de dados necessários para aprendizado profundo, pesquisa paralela, uma função que permite filtragem e análise de dados precisas e aceleração de multiplicação de matrizes, o processo central da computação de rede neural.

    "Digamos", diz Jariwala, "que você tem um aplicativo de IA que requer uma grande memória para armazenamento, bem como a capacidade de fazer reconhecimento e pesquisa de padrões. Pense em carros autônomos ou robôs autônomos, que precisam responder com rapidez e precisão para ambientes dinâmicos e imprevisíveis. Usando arquiteturas convencionais, você precisaria de uma área diferente do chip para cada função e queimaria rapidamente a disponibilidade e o espaço. Nosso design de ferrodiodo permite que você faça tudo em um só lugar, simplesmente alterando a maneira você aplica tensões para programá-lo."

    A recompensa de um chip CIM que pode se adaptar a várias operações de dados é clara:quando a equipe executou uma simulação de uma tarefa de aprendizado de máquina por meio de seu chip, ela foi executada com um grau de precisão comparável ao software baseado em IA executado em uma CPU convencional.

    “Esta pesquisa é altamente significativa porque prova que podemos confiar na tecnologia de memória para desenvolver chips que integram vários aplicativos de dados de IA de uma maneira que realmente desafie as tecnologias de computação convencionais”, diz Liu, o primeiro autor do estudo.

    A abordagem de design da equipe leva em consideração que a IA não é hardware nem software, mas uma colaboração essencial entre os dois.

    “É importante perceber que toda a computação de IA que é feita atualmente é habilitada por software em uma arquitetura de hardware de silício projetada décadas atrás”, diz Jariwala. "É por isso que a inteligência artificial como um campo tem sido dominado por engenheiros de computador e software. Reprojetar fundamentalmente o hardware para IA será o próximo grande divisor de águas em semicondutores e microeletrônicos. A direção em que estamos indo agora é a de hardware e software co-design."

    "Nós projetamos hardware que faz o software funcionar melhor", acrescenta Liu, "e com essa nova arquitetura garantimos que a tecnologia não seja apenas rápida, mas também precisa". + Explorar mais

    Uma macro nvCIM de quatro megabits para dispositivos Edge AI




    © Ciência https://pt.scienceaq.com