Por @Alvy — 11 de Octubre de 2018

Hay algo intrigante y encantador en ver a muñecos de palo ejecutando movimientos físicos extremadamente complicados y realistas. Una forma de conseguirlo es mediante motores gráficos físicos y captura de datos con sensores, como se hace en cine. Pero ahora dos investigadores de la Universidad de Berkeley han logrado hacerlo a partir de los miles de vídeos que se pueden encontrar en YouTube, sin más. Su trabajo ha sido seleccionado para el próximo Siggraph: Learning Acrobatics by Watching YouTube.

La técnica es una combinación de visión artificial y entrenamiento reforzado: el sistema puede reconstruir un modelo 3D a partir del vídeo (la llamada estimación de poses) y luego comprobar con el motor físico si es válido o no (reconstrucción del movimiento). Si es necesario, se hace pequeños ajustes automáticos, pero no necesita intervención humana. El resultado es una imitación de los movimientos asombrosamente realista.

Los diferentes movimientos pueden imitarse en un modelo de persona o de un robot, seres «morfológicamente diferentes» con distintas características físicas y centros de gravedad, pero que pueden intentar moverse con los mismos trucos ya aprendidos. Además pueden enfrentarse a diferentes escenarios, no simplemente un suelo plano ideal: terreno ondulado, obstáculos… cualquier tipo de entorno irregular. El motor físico realista se encarga de comprobar si los movimientos que se han calculado son adecuados, ajustarlos y simular lo que puede suceder. Si el robot Atlas puede hacerlo, ¿por qué no cualquier otro?

Compartir en Flipboard Publicar / Tuitear