Aleksander Madry é um líder no campo emergente de garantias de construção em inteligência artificial, que quase se tornou um ramo do aprendizado de máquina por direito próprio. Crédito:CSAIL
Algoritmos de aprendizado de máquina agora são a base de grande parte do software que usamos, ajudando a personalizar nossos feeds de notícias e concluir nossas reflexões antes de terminarmos de digitar. Mas, à medida que a inteligência artificial se torna ainda mais incorporada na vida diária, as expectativas aumentaram. Antes que os sistemas autônomos ganhem totalmente nossa confiança, precisamos saber que eles são confiáveis na maioria das situações e podem suportar interferências externas; em termos de engenharia, que eles são robustos. Também precisamos entender o raciocínio por trás de suas decisões; que eles são interpretáveis.
Aleksander Madry, um professor associado de ciência da computação no MIT e um membro do corpo docente da iniciativa Trustworthy AI do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL), compara IA a uma faca afiada, uma ferramenta útil, mas potencialmente perigosa, que a sociedade deve aprender a usar de maneira adequada. Madry falou recentemente no Simpósio sobre Robustez do MIT, AI interpretável, um evento co-patrocinado pelo MIT Quest for Intelligence e CSAIL, e realizada em 20 de novembro no Singleton Auditorium. O simpósio foi projetado para apresentar o novo trabalho do MIT na área de garantias de construção em IA, que quase se tornou um ramo do aprendizado de máquina por direito próprio. Seis membros do corpo docente falaram sobre suas pesquisas, 40 alunos apresentaram pôsteres, e Madry abriu o simpósio com uma palestra apropriadamente intitulada, "Robustez e Interpretabilidade." Falamos com Madry, um líder neste campo emergente, sobre algumas das principais ideias levantadas durante o evento.
P:A IA deve muito de seu progresso recente ao aprendizado profundo, um ramo do aprendizado de máquina que melhorou significativamente a capacidade dos algoritmos de selecionar padrões no texto, imagens e sons, dando-nos assistentes automatizados como Siri e Alexa, entre outras coisas. Mas os sistemas de aprendizado profundo permanecem vulneráveis de maneiras surpreendentes:tropeçando ao encontrar exemplos ligeiramente desconhecidos no mundo real ou quando um invasor mal-intencionado fornece imagens sutilmente alteradas. Como você e outras pessoas estão tentando tornar a IA mais robusta?
R:Até recentemente, Os pesquisadores de IA se concentraram simplesmente em obter algoritmos de aprendizado de máquina para realizar tarefas básicas. Alcançar um desempenho de caso mediano foi um grande desafio. Agora que o desempenho melhorou, a atenção mudou para o próximo obstáculo:melhorar o desempenho do pior caso. A maior parte da minha pesquisa está focada em enfrentar esse desafio. Especificamente, Trabalho no desenvolvimento de sistemas de aprendizado de máquina de próxima geração que serão confiáveis e seguros o suficiente para aplicativos de missão crítica, como carros autônomos e software que filtra conteúdo malicioso. No momento, estamos construindo ferramentas para treinar sistemas de reconhecimento de objetos para identificar o que está acontecendo em uma cena ou imagem, mesmo que as imagens alimentadas para o modelo tenham sido manipuladas. Também estamos estudando os limites dos sistemas que oferecem garantias de segurança e confiabilidade. Quanta confiabilidade e segurança podemos construir em modelos de aprendizado de máquina, e quais outros recursos podemos precisar sacrificar para chegar lá?
Meu colega Luca Daniel, quem também falou, está trabalhando em um aspecto importante desse problema:desenvolver uma maneira de medir a resiliência de um sistema de aprendizagem profunda em situações-chave. As decisões tomadas por sistemas de aprendizagem profunda têm consequências importantes, e, portanto, é essencial que os usuários finais possam medir a confiabilidade de cada uma das saídas do modelo. Outra forma de tornar um sistema mais robusto é durante o processo de treinamento. Em sua conversa, "Robustez em GANs e em Otimização de caixa preta, "Stefanie Jegelka mostrou como o aluno em uma rede adversária geradora, órgão, pode ser feito para resistir a manipulações de sua entrada, levando a um desempenho muito melhor.
P:As redes neurais que impulsionam o aprendizado profundo parecem aprender quase sem esforço:alimente-os com dados suficientes e eles podem superar os humanos em muitas tarefas. E ainda, também vimos como eles podem falhar facilmente, com pelo menos três casos amplamente divulgados de carros sem direção batendo e matando alguém. As aplicações de IA na área da saúde ainda não estão sob o mesmo nível de escrutínio, mas as apostas são igualmente altas. David Sontag enfocou sua palestra nas consequências de vida ou morte, muitas vezes, quando um sistema de IA carece de robustez. Quais são alguns dos sinais de alerta ao treinar uma IA em registros médicos de pacientes e outros dados de observação?
R:Isso remonta à natureza das garantias e às premissas subjacentes que incorporamos em nossos modelos. Freqüentemente, presumimos que nossos conjuntos de dados de treinamento são representativos dos dados do mundo real nos quais testamos nossos modelos - uma suposição que tende a ser muito otimista. Sontag deu dois exemplos de suposições erradas embutidas no processo de treinamento que podem levar uma IA a fornecer o diagnóstico errado ou recomendar um tratamento prejudicial. O primeiro focou em um enorme banco de dados de raios-X de pacientes lançado no ano passado pelo National Institutes of Health. Esperava-se que o conjunto de dados trouxesse grandes melhorias ao diagnóstico automatizado de doenças pulmonares até que um radiologista cético deu uma olhada mais de perto e encontrou erros generalizados nos rótulos de diagnóstico dos exames. Um IA treinado em varreduras de tórax com muitos rótulos incorretos terá dificuldade em gerar diagnósticos precisos.
A second problem Sontag cited is the failure to correct for gaps and irregularities in the data due to system glitches or changes in how hospitals and health care providers report patient data. Por exemplo, a major disaster could limit the amount of data available for emergency room patients. If a machine-learning model failed to take that shift into account its predictions would not be very reliable.
Q:You've covered some of the techniques for making AI more reliable and secure. What about interpretability? What makes neural networks so hard to interpret, and how are engineers developing ways to peer beneath the hood?
A:Understanding neural-network predictions is notoriously difficult. Each prediction arises from a web of decisions made by hundreds to thousands of individual nodes. We are trying to develop new methods to make this process more transparent. In the field of computer vision one of the pioneers is Antonio Torralba, director of The Quest. Em sua palestra, he demonstrated a new tool developed in his lab that highlights the features that a neural network is focusing on as it interprets a scene. The tool lets you identify the nodes in the network responsible for recognizing, dizer, a door, from a set of windows or a stand of trees. Visualizing the object-recognition process allows software developers to get a more fine-grained understanding of how the network learns.
Another way to achieve interpretability is to precisely define the properties that make the model understandable, and then train the model to find that type of solution. Tommi Jaakkola showed in his talk, "Interpretability and Functional Transparency, " that models can be trained to be linear or have other desired qualities locally while maintaining the network's overall flexibility. Explanations are needed at different levels of resolution much as they are in interpreting physical phenomena. Of course, there's a cost to building guarantees into machine-learning systems—this is a theme that carried through all the talks. But those guarantees are necessary and not insurmountable. The beauty of human intelligence is that while we can't perform most tasks perfectly, as a machine might, we have the ability and flexibility to learn in a remarkable range of environments.
Esta história foi republicada por cortesia do MIT News (web.mit.edu/newsoffice/), um site popular que cobre notícias sobre pesquisas do MIT, inovação e ensino.