Crédito:Princeton University
Ao mudar uma propriedade fundamental da computação, Os pesquisadores de Princeton construíram um novo tipo de chip de computador que aumenta o desempenho e reduz a demanda de energia dos sistemas usados para inteligência artificial.
O chip, que funciona com linguagens de programação padrão, pode ser particularmente útil em telefones, relógios ou outros dispositivos que dependem de computação de alto desempenho e têm vida útil limitada da bateria.
O chip, com base em uma técnica chamada computação in-memory, foi projetado para eliminar um gargalo computacional primário que força os processadores de computador a gastar tempo e energia buscando dados da memória armazenada. A computação in-memory executa a computação diretamente no armazenamento, permitindo maior velocidade e eficiência.
O anúncio do novo chip, junto com um sistema para programá-lo, segue de perto um relatório anterior de que os pesquisadores em colaboração com a Analog Devices Inc. fabricaram circuitos para computação in-memory. Os testes de laboratório do circuito demonstraram que o chip teria um desempenho dezenas a centenas de vezes mais rápido do que chips comparáveis. Contudo, o chip inicial não incluía todos os componentes da versão mais recente, portanto, sua capacidade era limitada.
No novo anúncio, pesquisadores do laboratório de Naveen Verma, um professor associado de engenharia elétrica, relatam que integraram os circuitos da memória em uma arquitetura de processador programável. O chip agora funciona com linguagens de computador comuns, como C.
"O chip anterior era um motor forte e poderoso, "disse Hongyang Jia, um estudante de pós-graduação no grupo de Verma e um dos designers de chips. "Este chip é o carro inteiro."
Embora possa operar com uma ampla gama de sistemas, o chip Princeton destina-se a oferecer suporte a sistemas projetados para inferência de aprendizado profundo - algoritmos que permitem que os computadores tomem decisões e executem tarefas complexas aprendendo a partir de conjuntos de dados. Os sistemas de aprendizagem profunda direcionam coisas como carros autônomos, sistemas de reconhecimento facial e software de diagnóstico médico.
Verma disse que para muitas aplicações, a economia de energia do chip seria tão crítica quanto o aumento de desempenho. Isso ocorre porque muitos aplicativos de IA devem operar em dispositivos acionados por baterias, como telefones celulares ou sensores médicos vestíveis. O Apple iPhone X, por exemplo, já tem um chip AI como parte de seu circuito. Mas, tanto a economia de energia quanto os aumentos de desempenho só têm utilidade se puderem ser acessados pela ampla base de aplicativos que precisam deles - é aí que entra a necessidade de programação.
"A arquitetura clássica do computador separa o processador central, que processa os dados, da memória, que armazena os dados, "Verma disse." Grande parte da energia do computador é usada para mover dados de um lado para outro. "
Em parte, o novo chip é uma resposta à promessa de desaceleração da Lei de Moore. Em 1965, O fundador da Intel, Gordon Moore, observou que o número de transistores em circuitos integrados dobrou a cada ano, e a indústria também observou que esses transistores se tornaram mais rápidos e mais eficientes em termos de energia no processo. Por décadas, essas observações, que ficou conhecida como Lei de Moore, sustentou uma transformação na qual os computadores se tornaram cada vez mais poderosos. Mas nos últimos anos, os transistores não têm melhorado como no passado, encontrando limitações fundamentais de sua física.
Verma, que é especialista em design de circuitos e sistemas, pensei em maneiras de contornar esse aperto no nível arquitetônico, em vez de no nível do transistor. O cálculo necessário para a IA seria muito mais eficiente se pudesse ser feito no mesmo local que a memória do computador, pois eliminaria o tempo e a energia usados para buscar dados armazenados em lugares distantes. Isso tornaria o computador mais rápido sem atualizar os transistores. Mas criar tal sistema representou um desafio. Os circuitos de memória são projetados com a maior densidade possível para empacotar grandes quantidades de dados. Computação, por outro lado, requer que o espaço seja dedicado para transistores adicionais.
Uma opção era substituir os transistores por componentes elétricos chamados capacitores. Transistores são essencialmente chaves que usam mudanças de voltagem para representar os 1s e 0s que compõem os sinais binários do computador. Eles podem fazer todos os tipos de cálculos usando matrizes de 1 e 0 dígitos, é por isso que os sistemas são chamados de digitais. Capacitores armazenam e liberam carga elétrica, então eles podem representar qualquer número, não apenas 1s e 0s. Verma percebeu que com capacitores ele poderia realizar cálculos em um espaço muito mais denso do que faria com transistores.
Os capacitores também podem ser feitos com muita precisão em um chip, muito mais do que transistores. O novo design emparelha capacitores com células convencionais de memória de acesso aleatório estática (SRAM) em um chip. A combinação de capacitores e SRAM é usada para realizar cálculos nos dados no domínio analógico (não digital), ainda assim, de maneiras confiáveis e passíveis de inclusão de recursos de programação. Agora, os circuitos de memória podem realizar cálculos de maneiras dirigidas pela unidade de processamento central do chip.
"A computação em memória tem se mostrado muito promissora nos últimos anos, em realmente abordar a energia e velocidade dos sistemas de computação, "disse Verma." Mas a grande questão tem sido se essa promessa seria escalável e utilizável por designers de sistemas em todas as aplicações de IA com as quais realmente nos importamos. Isso torna a programação necessária. "