p Crédito CC0:domínio público
p Construir um modelo de rede neural para cada novo conjunto de dados é o pior pesadelo para todo cientista de dados. E se você pudesse prever a precisão da rede neural mais cedo, graças à experiência acumulada e à aproximação? Esse era o objetivo de um projeto recente na IBM Research e o resultado é TAPAS ou Train-less Accuracy Predictor for Architecture Search (clique para ver a demonstração). Seu truque é que ele pode estimar, em frações de segundo, desempenho de classificação para conjuntos de dados de entrada invisíveis, sem treinamento para classificação de imagem e texto. p Em contraste com as abordagens propostas anteriormente, TAPAS não é apenas calibrado nas informações topológicas da rede, mas também na caracterização da dificuldade do conjunto de dados, o que nos permite reajustar a previsão sem nenhum treinamento.
p Esta tarefa foi particularmente desafiadora devido à heterogeneidade dos conjuntos de dados usados para treinar redes neurais. Eles podem ter classes completamente diferentes, estruturas, e tamanhos, aumentando a complexidade de chegar a uma aproximação. Quando meus colegas e eu pensamos em como lidar com isso, tentamos não pensar nisso como um problema para um computador, mas, em vez disso, pensar em como um humano poderia prever a precisão.
p Nós entendemos que se você perguntasse a um humano com algum conhecimento de aprendizagem profunda se uma rede seria boa ou ruim, essa pessoa teria naturalmente uma intuição sobre isso. Por exemplo, reconheceríamos que dois tipos de camadas não se misturam, ou que depois de um tipo de camada, há sempre outro que segue e melhora a precisão. Portanto, consideramos se adicionar recursos semelhantes a essas intuições humanas em um computador poderia ajudá-lo a fazer um trabalho ainda melhor. E estávamos certos.
Crédito:IBM p Testamos o TAPAS em dois conjuntos de dados realizados em 400 segundos em uma única GPU, e nossas melhores redes descobertas alcançaram 93,67% de precisão para CIFAR-10 e 81,01% para CIFAR-100, verificado por treinamento. Essas redes funcionam de forma competitiva com outras redes de última geração descobertas automaticamente, mas precisou apenas de uma pequena fração do tempo para solução e recursos computacionais. Nosso preditor atinge um desempenho que excede 100 redes por segundo em uma única GPU, criando assim a oportunidade de realizar pesquisas de arquitetura em grande escala em poucos minutos. Acreditamos que esta seja a primeira ferramenta que pode fazer previsões com base em dados não vistos.
p TAPAS é um dos motores de IA no novo recurso inovador da IBM chamado NeuNetS como parte do AI OpenScale, que pode sintetizar redes neurais personalizadas em domínios de texto e imagem.
p No NeuNetS, os usuários farão upload de seus dados para a nuvem IBM e, em seguida, o TAPAS pode analisar os dados e classificá-los em uma escala de 0-1 em termos de complexidade de tarefa, 0 significa difícil e 1 é simples. Em seguida, o TAPAS começa a reunir conhecimento de sua biblioteca de referência em busca de conjuntos de dados semelhantes com base no que o usuário carregou. Então, com base nisso, O TAPAS pode prever com precisão o desempenho de uma nova rede no novo conjunto de dados, muito semelhante a como um humano o determinaria.
p A demanda de hoje por habilidades de ciência de dados já excede a oferta atual, tornando-se uma barreira real para a adoção de IA na indústria e na sociedade. TAPAS é um marco fundamental para a demolição desta parede. A IBM e o Laboratório de Pesquisa de Zurique estão trabalhando para tornar as tecnologias de IA tão fáceis de usar, com alguns cliques do mouse. Isso permitirá que usuários não especialistas criem e implantem modelos de IA em uma fração do tempo que leva hoje - e sem sacrificar a precisão. Além disso, essas ferramentas irão aprender gradualmente sobre a utilização em domínios especializados e melhorar automaticamente com o tempo, ficando melhor e melhor. p
Esta história foi republicada por cortesia da IBM Research. Leia a história original aqui.