p Os cientistas da computação da UC Berkeley desenvolveram um algoritmo que usa aprendizagem por reforço para gerar simulações realistas do movimento humano e animal, como este backflip em tempo real. O mesmo algoritmo funciona para 25 truques acrobáticos e de dança, com um mês de aprendizagem exigido por habilidade. Crédito:Jason Peng, UC Berkeley
p Ainda é fácil diferenciar os movimentos simulados por computador da realidade - na tela grande ou em videogames, humanos e animais simulados muitas vezes se movem desajeitadamente, sem o ritmo e a fluidez de suas contrapartes do mundo real. p Mas isso está mudando. Universidade da Califórnia, Os pesquisadores de Berkeley já fizeram um grande avanço na animação realista por computador, usando aprendizado de reforço profundo para recriar movimentos naturais, até mesmo para feitos acrobáticos como break dancing e artes marciais. Os personagens simulados também podem responder naturalmente às mudanças no ambiente, como se recuperar de tropeçar ou ser atingido por projéteis.
p "Este é, na verdade, um salto muito grande em relação ao que foi feito com aprendizagem profunda e animação. No passado, muito trabalho foi feito para simular movimentos naturais, mas esses métodos baseados na física tendem a ser muito especializados; eles não são métodos gerais que podem lidar com uma grande variedade de habilidades, "disse o estudante de graduação da UC Berkeley, Xue Bin" Jason "Peng. Cada atividade ou tarefa normalmente requer seu próprio controlador personalizado.
p “Desenvolvemos agentes mais capazes que se comportam de maneira natural, "ele disse." Se você comparar nossos resultados com a captura de movimento gravada de humanos, estamos chegando ao ponto em que é muito difícil distinguir os dois, para dizer o que é simulação e o que é real. Estamos caminhando para um dublê virtual. "
p O trabalho também pode inspirar o desenvolvimento de habilidades motoras mais dinâmicas para robôs.
p Um artigo que descreve o desenvolvimento foi condicionalmente aceito para apresentação na conferência SIGGRAPH 2018 em agosto em Vancouver, Canadá, e foi postado online em 10 de abril. Os colegas de Peng no Departamento de Engenharia Elétrica e Ciências da Computação são o professor Pieter Abbeel e o professor assistente Sergey Levine, junto com Michiel van de Panne, da University of British Columbia.
p
Mocap para DeepMimic
p As técnicas tradicionais de animação normalmente requerem o design de controladores personalizados à mão para cada habilidade:um controlador para caminhar, por exemplo, e outro para correr, flips e outros movimentos. Esses controladores feitos à mão podem ter uma aparência muito boa, Peng disse.
p Alternativamente, métodos de aprendizagem por reforço profundo, como GAIL, pode simular uma variedade de habilidades diferentes usando um único algoritmo geral, mas seus resultados muitas vezes parecem pouco naturais.
Os pesquisadores da UC Berkeley criaram um dublê virtual que poderia tornar os personagens animados por computador mais realistas. Crédito:vídeo da UC Berkeley por Roxanne Makasdjian e Stephen McNally, com imagens de simulação de Jason Peng p "A vantagem do nosso trabalho, "Peng disse, "é que podemos obter o melhor dos dois mundos. Temos um único algoritmo que pode aprender uma variedade de habilidades diferentes, e produzir movimentos que rivalizam, senão superam o estado da arte em animação com controladores feitos à mão. "
p Para alcançar isto, Peng obteve dados de referência de clipes de captura de movimento (mocap) que demonstram mais de 25 feitos acrobáticos diferentes, como backflips, rodas de estrela, kip-ups e vaults, bem como execução simples, jogando e pulando. Depois de fornecer os dados do mocap ao computador, a equipe então permitiu que o sistema - apelidado de DeepMimic - "praticasse" cada habilidade por cerca de um mês de tempo simulado, um pouco mais do que um humano pode levar para aprender a mesma habilidade.
p O computador praticava 24 horas por dia, 7 dias por semana, passando por milhões de tentativas para aprender como simular de forma realista cada habilidade. Ele aprendeu por tentativa e erro:comparando seu desempenho após cada tentativa com os dados do mocap, e ajustando seu comportamento para corresponder mais de perto ao movimento humano.
p "A máquina está aprendendo essas habilidades completamente do zero, antes mesmo de saber como andar ou correr, então, um mês pode não ser muito razoável, " ele disse.
p O segredo era permitir que a máquina aprendesse de maneiras que os humanos não aprendem. Por exemplo, um salto mortal para trás envolve tantos movimentos corporais individuais que uma máquina pode continuar caindo e nunca passar dos primeiros passos. Em vez de, o algoritmo começa a aprender em vários estágios do backflip - inclusive no ar - de modo a aprender cada estágio do movimento separadamente e depois costurá-los.
p Surpreendentemente, uma vez treinado, os personagens simulados são capazes de lidar e se recuperar de condições nunca antes vistas:correr em terreno irregular e dar chutes giratórios enquanto são atingidos por projéteis.
p “As recuperações vêm gratuitamente do processo de aprendizagem, "Peng disse.
p E o mesmo método simples funcionou para todas as mais de 25 habilidades.
p "Quando começamos, pensamos em tentar algo simples, como base para métodos posteriores, não esperava que iria funcionar. Mas o método muito simples funciona muito bem. Isso mostra que uma abordagem simples pode realmente aprender um repertório muito rico de habilidades altamente dinâmicas e acrobáticas. "