Crédito:The District
Os pesquisadores de Cambridge são pioneiros em uma forma de aprendizado de máquina que começa com apenas um pouco de conhecimento prévio e aprende continuamente com o mundo ao seu redor.
No centro da tela está um minúsculo monociclo. A animação começa, o monociclo salta para a frente e cai. Este é o teste nº 1. Agora é a experiência nº 11 e há uma mudança - um atraso quase imperceptível no outono, talvez uma tentativa de se endireitar antes da queda inevitável. "É aprender com a experiência, "concorda o professor Carl Edward Rasmussen.
Depois de um minuto, o monociclo balança suavemente para a frente e para trás enquanto circula no local. Ele descobriu como esse sistema extremamente instável funciona e atingiu seu objetivo. "O monociclo começa sem saber nada sobre o que está acontecendo - só foi dito que seu objetivo é ficar no centro de uma forma vertical. À medida que começa a cair para a frente e para trás, começa a aprender, "explica Rasmussen, que lidera o Laboratório de Aprendizagem Computacional e Biológica do Departamento de Engenharia. "Tínhamos um robô monociclo real, mas na verdade era muito perigoso - era forte - e agora usamos dados do real para fazer simulações, e temos uma mini versão. "
Rasmussen usa o monociclo autodidata para demonstrar como uma máquina pode iniciar com muito poucos dados e aprender dinamicamente, aprimorando seu conhecimento cada vez que recebe novas informações de seu ambiente. As consequências de ajustar seu impulso motorizado e equilíbrio ajudam o monociclo a aprender quais movimentos foram importantes para ajudá-lo a se manter em pé no centro.
"Isso é exatamente como um humano aprenderia, "explica o professor Zoubin Ghahramani, que lidera o Grupo de Aprendizado de Máquina no Departamento de Engenharia. "Não começamos sabendo tudo. Aprendemos coisas aos poucos, de apenas alguns exemplos, e sabemos quando ainda não estamos confiantes em nosso entendimento. "
A equipe de Ghahramani é pioneira em um ramo da IA chamado aprendizado de máquina contínuo. Ele explica que muitas das formas atuais de aprendizado de máquina são baseadas em redes neurais e modelos de aprendizado profundo que usam algoritmos complexos para encontrar padrões em grandes conjuntos de dados. As aplicações comuns incluem a tradução de frases para diferentes idiomas, reconhecer pessoas e objetos em imagens, e detectar gastos incomuns em cartões de crédito.
"Esses sistemas precisam ser treinados em milhões de exemplos rotulados, o que leva tempo e muita memória do computador, "ele explica." E eles têm falhas. Quando você os testa fora dos dados em que foram treinados, eles tendem a ter um desempenho insatisfatório. Carros sem motorista, por exemplo, podem ser treinados em um grande conjunto de dados de imagens, mas podem não ser capazes de generalizar para condições de neblina.
"Pior que isso, os atuais sistemas de aprendizado profundo às vezes podem nos dar respostas erradas com segurança, e fornecem uma visão limitada sobre por que eles tomaram decisões específicas. Isso é o que me incomoda. Está tudo bem estar errado, mas não está certo estar errado com confiança. "
A chave é como você lida com a incerteza - a incerteza de dados confusos e ausentes, e a incerteza de prever o que pode acontecer a seguir. "A incerteza não é uma coisa boa - é algo que você luta, mas você não pode lutar contra isso, ignorando-o, "diz Rasmussen." Estamos interessados em representar a incerteza. "
Acontece que existe uma teoria matemática que lhe diz o que fazer. Foi descrito pela primeira vez pelo estatístico inglês do século 18, Thomas Bayes. O grupo de Ghahramani foi um dos primeiros a adotar a IA da teoria da probabilidade Bayesiana, que descreve como a probabilidade de um evento ocorrer (como ficar em pé no centro) é atualizada à medida que mais evidências (como a última decisão que o monociclo tomou antes de cair) se tornam disponíveis.
O Dr. Richard Turner explica como a regra de Bayes lida com o aprendizado contínuo:"o sistema leva seu conhecimento prévio, pondera pelo quão preciso ele pensa que o conhecimento é, em seguida, combina-o com novas evidências que também são avaliadas por sua precisão.
"Isso é muito mais eficiente em termos de dados do que a forma como uma rede neural padrão funciona, ", acrescenta." Novas informações podem fazer com que uma rede neural esqueça tudo o que aprendeu anteriormente - chamado de esquecimento catastrófico - o que significa que ela precisa examinar todos os seus exemplos rotulados novamente, como reaprender as regras e o glossário de um idioma toda vez que você aprende uma nova palavra.
"Nosso sistema não precisa revisitar todos os dados que viu antes - assim como os humanos não se lembram de todas as experiências anteriores; em vez disso, aprendemos um resumo e o atualizamos conforme as coisas acontecem." Ghahramani acrescenta:"A melhor coisa sobre o aprendizado de máquina bayesiano é que o sistema toma decisões com base em evidências - às vezes é considerado como 'automatizar o método científico' - e porque é baseado em probabilidade, pode nos dizer quando está fora de sua zona de conforto. "
Ghahramani também é cientista-chefe do Uber. Ele vê um futuro onde as máquinas estão continuamente aprendendo não apenas individualmente, mas como parte de um grupo. "Quer sejam empresas como a Uber, otimizando a oferta e a demanda, ou veículos autônomos alertando uns aos outros sobre o que está por vir na estrada, ou robôs trabalhando juntos para levantar uma carga pesada - cooperação, e às vezes competição, em IA ajudará a resolver problemas em uma ampla gama de setores. "
Uma das fronteiras realmente interessantes é ser capaz de modelar resultados prováveis no futuro, como Turner descreve. "O papel da incerteza se torna muito claro quando começamos a falar sobre a previsão de problemas futuros, como a mudança climática."
Turner está trabalhando com os cientistas climáticos Dr. Emily Shuckburgh e Dr. Scott Hosking no British Antarctic Survey para perguntar se as técnicas de aprendizado de máquina podem melhorar a compreensão dos riscos das mudanças climáticas no futuro.
"Precisamos quantificar os riscos e impactos futuros de condições meteorológicas extremas em escala local para informar as respostas políticas às mudanças climáticas, "explica Shuckburgh." As simulações de computador tradicionais do clima nos dão uma boa compreensão das condições climáticas médias. O que pretendemos fazer com este trabalho é combinar esse conhecimento com dados observacionais de satélites e outras fontes para obter um melhor controle sobre, por exemplo, o risco de eventos climáticos de baixa probabilidade, mas de alto impacto. "
"Na verdade, é um desafio fascinante de aprendizado de máquina, "diz Turner, quem está ajudando a identificar qual área da modelagem climática é mais propícia ao uso da probabilidade bayesiana. "Os dados são extremamente complexos, e às vezes ausente e sem rótulo. As incertezas são abundantes. "Um elemento significativo de incerteza é o fato de que as previsões são baseadas em nossa futura redução de emissões, cuja extensão ainda é desconhecida.
"Uma parte interessante disso para os formuladores de políticas, além do valor de previsão, é que você pode imaginar ter uma máquina que continuamente aprende com as consequências das estratégias de mitigação, como a redução de emissões - ou a falta delas - e ajusta suas previsões de acordo, "acrescenta Turner.
O que ele está descrevendo é uma máquina que - como o monociclo - se alimenta da incerteza, aprende continuamente com o mundo real, e avalia e reavalia todos os resultados possíveis. Quando se trata de clima, Contudo, é também uma máquina de todos os futuros possíveis.