p Embora os métodos de aprendizado de máquina "sejam flexíveis e normalmente resultem em previsões precisas, eles revelam pouco em termos humanos compreensíveis sobre por que uma predição particular é feita, "diz Tommi Jaakkola, professor de engenharia elétrica e ciência da computação no Massachusetts Institute of Technology, via email. Pense nisso como o equivalente ao aprendizado de máquina de escrever seus problemas de matemática em um quadro-negro para mostrar seu trabalho. p Se você é um paciente com câncer tentando escolher opções de tratamento com base em previsões de como sua doença pode progredir, ou um investidor tentando descobrir o que fazer com suas economias para aposentadoria, confiar cegamente em uma máquina pode ser um pouco assustador - especialmente porque ensinamos as máquinas a tomar decisões, mas não temos uma boa maneira de observar exatamente Como as eles estão fazendo isso. p Mas não tenha medo. Em um novo artigo científico, Jaakkola e outros pesquisadores do Instituto de Tecnologia de Massachusetts desenvolveram um método para verificar as respostas que as redes neurais apresentam. Pense nisso como o equivalente ao aprendizado de máquina de escrever seus problemas de matemática em um quadro-negro para mostrar seu trabalho. p Como detalhes de um comunicado de imprensa do MIT, As redes neurais de IA na verdade imitam a estrutura do cérebro humano. Eles são compostos de muitos nós de processamento que, como nossos neurônios, unir forças e combinar seu poder computacional para resolver problemas. No processo, eles se envolvem no que os pesquisadores chamam de "aprendizado profundo, "passando dados de treinamento de nó para nó, e então correlacioná-lo com qualquer tipo de classificação que a rede neural está tentando aprender como fazer. Os resultados são continuamente modificados para melhorar, quase da mesma maneira que os humanos aprendem por tentativa e erro ao longo do tempo. p O grande problema é que mesmo os cientistas da computação que programam as redes não podem realmente observar o que está acontecendo com os nós, o que torna difícil entender como os computadores realmente tomam suas decisões. p "Não tentamos explicar o funcionamento interno de um modelo complexo, "Jaakkola explica." Em vez disso, forçamos o modelo a operar de uma maneira que permita a um ser humano verificar facilmente se a previsão foi feita na base certa. " p "Nosso método aprende a gerar um fundamento lógico para cada previsão. Um fundamento lógico é um trecho de texto conciso, fácil para um humano verificar, só isso é suficiente para fazer a mesma previsão. Para alcançar isto, dividimos a arquitetura geral do modelo em dois componentes separáveis - gerador e codificador. O gerador seleciona um fundamento lógico - como um pedaço de texto - e o passa para o codificador para fazer uma previsão. A combinação é aprendida a funcionar em conjunto como um preditor. " p "Assim, mesmo que nosso gerador e codificador sejam métodos complexos de aprendizado profundo, o modelo combinado é forçado a fazer sua previsão de uma maneira que seja diretamente verificável, uma vez que a previsão é baseada na lógica selecionada, "escreve Jaakkola. p Em seu jornal, os cientistas se divertiram usando seu sistema para classificar comentários de um site aficionado por cerveja, com base nos atributos das cervejas, como aroma, paladar e aparência. "O conjunto de dados de revisão de cerveja já tinha frases anotadas pertencentes a aspectos específicos dos produtos para que pudéssemos comparar diretamente os fundamentos gerados automaticamente com as seleções humanas, "diz Jaakkola. No experimento, eles descobriram que a rede neural concordou com as anotações humanas entre 80 e 96 por cento do tempo, dependendo de quão específica a característica era. Agora isso é interessante
Uma das maneiras clássicas de demonstrar as capacidades de uma rede neural de IA é usá-la para resolver o chamado problema do caixeiro viajante, e descobrir a rota mais curta entre várias cidades.