La animación digital en cine, videojuegos o aplicaciones de realidad virtual o aumentada aún es fácilmente detectada por el ojo humano y reconocida como ficticia. Los humanos simulados y los animales a menudo se mueven torpemente, sin el ritmo y la fluidez de sus contrapartes del mundo real. Investigadores de USC Berkeley presentan un gran avance en la animación por ordenador realista.
Utilizando un profundo refuerzo para recrear movimientos naturales, incluso para hazañas acrobáticas como break dance y artes marciales, los personajes simulados también pueden responder naturalmente a los cambios en el entorno, como recuperarse de los disparos o ser arrojados por los proyectiles.
«Esto es realmente un gran salto de lo que se ha hecho con el aprendizaje profundo y la animación. En el pasado, se ha dedicado mucho trabajo a la simulación de movimientos naturales, pero estos métodos basados en la física tienden a ser muy especializados; métodos generales que pueden manejar una gran variedad de habilidades «, afirma el estudiante de posgrado de la UC Berkeley Xue Bin «Jason» Peng, participante en el nuevo desarrollo. Cada actividad o tarea generalmente requiere su propio controlador diseñado a medida.

Fig. 5. Instantáneas de las mociones de las políticas formadas. De arriba hacia abajo: correr, voltereta, bailar, voltereta hacia atrás, volante frontal, rodar. ©XUE BIN PENG et al.
«Desarrollamos agentes más capaces que se comportan de manera natural», dijo. «Si comparamos nuestros resultados con la captura de movimiento grabada desde humanos, estamos llegando al punto en el que es bastante difícil distinguirlos, decir qué es la simulación y qué es real. Nos estamos acercando a un especialista virtual».
El trabajo también podría inspirar el desarrollo de habilidades motoras más dinámicas para los robots.
Mocap (Motion Capture) para DeepMimic
Las técnicas tradicionales de animación digital generalmente requieren diseñar controles personalizados a mano para cada habilidad: un controlador para caminar, por ejemplo, y otro para correr, voltear y otros movimientos. Estos controladores diseñados a mano pueden verse bastante bien, dijo Peng.
Alternativamente, los métodos de aprendizaje de refuerzo profundo, como GAIL, pueden simular una variedad de habilidades diferentes usando un único algoritmo general, pero sus resultados a menudo parecen muy poco naturales.
«La ventaja de nuestro trabajo», dijo Peng, «es que podemos obtener lo mejor de ambos mundos. Tenemos un algoritmo único que puede aprender una variedad de habilidades diferentes y producir movimientos que rivalizan, si no superan, el estado del arte. en animación con controladores artesanales «.
Para lograr esto, Peng obtuvo datos de referencia de clips de captura de movimiento (mocap) que demuestran más de 25 hazañas acrobáticas diferentes, como volteretas hacia atrás, volteretas, saltos y bóvedas, así como simples carreras, lanzamientos y saltos. Después de proporcionar los datos mocap a la computadora, el equipo luego permitió que el sistema, apodado DeepMimic, «practicara» cada habilidad durante aproximadamente un mes de tiempo simulado, un poco más de lo que un humano podría tomar para aprender la misma habilidad.
La computadora practica 24 horas al día, 7 días a la semana, pasando por millones de pruebas para aprender a simular de forma realista cada habilidad.
Aprendió a través de prueba y error: comparando su desempeño después de cada prueba con los datos de mocap y ajustando su comportamiento para que coincida más estrechamente con el movimiento humano. Así, Beng explica que «La máquina está aprendiendo estas habilidades completamente desde cero, incluso antes de saber caminar o correr, por lo que un mes podría no ser demasiado irracional».
La clave era permitir que la máquina aprendiera de forma que los humanos no lo hacen. Por ejemplo, un backflip implica tantos movimientos corporales individuales que una máquina puede seguir cayéndose y nunca pasar los primeros pasos. En cambio, el algoritmo comienza a aprender en varias etapas del backflip, incluso en el aire, para aprender cada etapa del movimiento por separado y luego unirlas.
Sorprendentemente, una vez entrenados, los personajes simulados son capaces de lidiar y recuperarse de condiciones nunca antes vistas: correr sobre terrenos irregulares y dar patadas giratorias mientras son bombardeados por proyectiles.
Un documento que describe el desarrollo ha sido aceptado condicionalmente para su presentación en la conferencia SIGGRAPH 2018 en agosto en Vancouver, Canadá, y fue publicado en línea el 10 de abril. Los colegas de Peng en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación son el profesor Pieter Abbeel y el profesor Sergey Levine , junto con Michiel van de Panne de la Universidad de British Columbia.
Puedes leer el trabajo original en github.io
Fuente: Berkeley.