Crédito CC0:domínio público
Esta semana, os observadores de tecnologia receberam uma série de trabalhos impressionantes de aceleradores de IA na Intel, nomeadamente revelações no evento Hot Chips 2019, onde a Intel apresentou detalhes de seus processadores de rede neural Nervana, (1) NNP-T para treinamento e (2) NNP-I para inferência.
Vamos primeiro revisitar o trabalho de inferência (Spring Hill), e NNP-1, tendo sido desenvolvido em suas instalações em Haifa, Israel. NNP-1 significa Neural Network Processor for Inference.
Sua construção vai permitir que "lide com altas cargas de trabalho usando quantidades mínimas de energia, "disse Steven Scheer, Reuters.
Descrevendo sua função, Ravie Lakshmananin, TNW, disse que "visa especificamente o aspecto de inferência da IA para deduzir novos insights. Ao fazer uso de um mecanismo de computação de inferência de IA desenvolvido para esse fim, O NNP-I oferece maior desempenho com menor consumo de energia. "
De onde vem o nome Nervana? A Nervana Systems é a empresa adquirida em 2016. Na época, analista Karl Freund disse EE Times que fazia muito sentido para a Intel fazer isso. Adquirir a Nervana foi uma forma de entrar no mercado de aprendizado profundo.
Esta semana, a questão de por que foi transformada em por que não por um porta-voz da Intel.
"A fim de alcançar uma situação futura de 'IA em todos os lugares', temos que lidar com grandes quantidades de dados gerados e garantir que as organizações estejam equipadas com o que precisam para fazer uso eficaz dos dados e processá-los onde são coletados, "disse Naveen Rao, fundador da Nervana e agora gerente geral do grupo de produtos de inteligência artificial da Intel, em um relatório da Reuters. "Esses computadores precisam de aceleração para aplicações complexas de IA."
Observadores de tecnologia, incluindo SiliconANGLE estavam dizendo que o NNP-1 era bom para grandes data centers que executam cargas de trabalho de IA. Fossbytes disse que um conjunto abrangente de recursos RAS deve garantir que ele possa ser facilmente implantado em data centers existentes.
Joel Hruska em ExtremeTech :"A Intel afirma que o NNP-I pode fornecer desempenho ResNet50 de 3, 600 inferências por segundo ao executar em um TDP de 10W. Isso dá 4,8 TOPS / watt, que atende às metas gerais de eficiência da Intel (a empresa afirma que o NNP-I é mais eficiente com potências mais baixas). "
O outro item de interesse na conferência Hot Chips 2019 foi o NNP-T, que significa Intel Nervana Neural Network Processor for Training. A Intel descreveu o NNP-T (codinome Spring Crest) como criado com o propósito (1) para treinar modelos complexos de aprendizagem profunda em grande escala, e (2) simplificar o treinamento distribuído com suporte de scale-out pronto para uso.
Paul Alcorn, Hardware do Tom , escreveu sobre como "o NNP-T foi projetado para escalar sem cola de chassi a chassi, e até mesmo rack a rack, sem um switch. "Ele disse que a rede foi especialmente projetada com alta largura de banda e baixa latência em mente; por sua vez, a arquitetura é para lidar com "modelos massivos que escalam para 5 ou 8 bilhões de parâmetros, ou além. "
Naveen Rao comentou:"O Intel Nervana NNP-T expande os limites do treinamento de aprendizado profundo. Ele foi criado para priorizar duas considerações importantes do mundo real:como treinar uma rede o mais rápido possível e como fazê-lo dentro de um determinado orçamento de energia." A arquitetura foi construída do zero, sem cargas de trabalho legadas para suportar.
No quadro geral, The Times of Israel disse "Empresas como a Intel, Nvidia, A Qualcomm, o Google e as startups em todo o mundo estão em busca de novas tecnologias neste campo, que envolve, entre outras coisas, a criação de hardware para permitir o processamento de grandes quantidades de informações. "
O hardware de processamento tem duas finalidades, escreveu Shoshanna Solomon:(1) treinar os computadores para fazer novas tarefas e (2) ensiná-los a inferir e, assim, alcançar insights.
Contudo, A Intel está fazendo sua parte para permitir que os cientistas de dados façam tanto enquanto trabalham com dados não estruturados quanto com dados complexos.
© 2019 Science X Network