5. Precursores


Como ya se ha comentado en la definición, el concepto de captura de movimiento no es una tecnología novedosa.Ya en la antigua Grecia, Aristóteles escribió De Motu Animalium (Sobre el movimiento de los animales), en la cual comparó los cuerpos de los animales con sistemas mecánicos realizando un análisis del movimiento.

Casi dos mil años después, Leonardo da Vinci describió algunos mecanismos que utiliza el cuerpo humano a la hora de moverse: cómo nos mantenemos de pie, cómo saltamos, cómo nos levantamos tras estar sentados, cómo caminamos en pendientes… Cien años después, Galileo trató de analizar la fisiología humana desde un punto de vista matemático. Con la ayuda del trabajo de Galileo, Borelli calculó las fuerzas necesarias para mantener el equilibrio en varias articulaciones del cuerpo, determinó el centro de gravedad del ser humano, calculó los volúmenes de aire que inspiraba y expiraba el ser humano y demostró que la respiración era debida a la elasticidad de los tejidos. Estos trabajos del campo de la biomecánica fueron seguidos por Newton, Bernuolli, Euler, Poiseuille, Young y otros científicos reconocidos.

Es interesante mencionar en estas líneas a Muybridge, que fue el primer fotógrafo en representar el movimiento humano y animal, a través de múltiples cámaras para captar instantes seguidos en el tiempo. Más tarde, con la aparición de la técnica del rotoscopio, se comenzaría a utilizar la captura de movimientos en personas para agilizar el diseño de dibujos animados (Walt Disney la utilizó en Blancanieves y los siete enanitos). En los años 70, con la aparición de ordenadores y su potencial uso en el cine, empieza la captura de movimientos para la generación de Graphic Computer (GC), como veremos a continuación.

5.1. Orígenes de la captura de movimientos para la generación de GC:

1980-1983: Simon Fraser University — Goniómetros

A finales de los años 70, cuando comienza a ser factible la animación de personajes por ordenador, los diseñadores comenzaron a usar las técnicas clásicas de diseño (como el rotoscopio). El rotoscopio era una técnica en la cual se utilizaban frames reales que se utilizaban como base para diseñar algo por encima, similar a calcar un folio por encima de otro que contiene lo que queremos copiar. En esta misma época, comienzan a utilizarse los ordenadores para analizar el movimiento humano en estudios de biomecánica. Las técnicas y dispositivos utilizados para esto empezó a adoptarse en la comunidad de investigadores de GC. Al principio de los años 80 , Tom Calvert, un profesor de kinesiología y ciencias de la computación en la Simon Fraser University, adhirió potenciómetros a un cuerpo y usó la salida para generar personajes animados por ordenador con objeto de ser usado en estudios de coreografía y asistencia clínica para pacientes con problemas de locomoción. Por ejemplo, para analizar la flexión de rodilla, creó una especie de exoesqueleto para cada pierna, cada uno de los cuales tenia adherido un potenciómetro y con ello se podía analizar el grado de flexión. La señal analógica era digitalizada e introducida en un programa que hacía una simulación mediante una animación en el ordenador.

1982-1983: MIT — Marioneta Gráfica

Poco después, comienzan a salir los primeros sistemas de seguimiento visual como el Op-Eye y el SelSpot. A principios de los 80, algunos de los centros más prestigiosos como el Massachusetts Institute of Technology (MIT) realizaron experimentaron con dispositivos de seguimiento visual aplicados en el cuerpo humano.

Estos sistemas de MC normalmente usan pequeños marcadores adheridos al cuerpo (tanto LEDs parpadeantes como pequeños puntos reflectantes) y una serie de cámaras alrededor del espacio de maniobras. Una combinación de hardware especial y software distinguen los marcadores en el campo visual de cada cámara, y mediante comparación, calculan la posición tridimensional de cada marcador en cada instante.

La tecnología está limitada por la velocidad a la que los marcadores pueden ser rastreados (esto afecta al número de posiciones por segundo que pueden ser capturadas), por la oclusión de los marcadores por el cuerpo y por la resolución de las cámaras (específicamente por su capacidad para diferenciar distintos marcadores próximos). Los primeros sistemas podían rastrear sólo una docena de marcadores al mismo tiempo. Los sistemas más recientes pueden distinguir varias docenas. Los problemas de oclusión se pueden superar con el uso de más cámaras, pero incluso con eso, los sistemas ópticos más modernos suelen requerir un post-procesamiento manual para recuperar trayectorias cuando un marcador se pierde de vista. Esto cambiará según los sistemas se vuelvan más sofisticados. El problema de la resolución está relacionado con varias variables, como el precio de la cámara, el campo de visión, y el espacio de movimientos. A mayor resolución requerida, mayor el precio de la cámara. La misma cámara puede dar una mejor resolución de movimiento si está enfocando un menor campo de visión, pero esto limita la capacidad de los movimientos a realizar. Por ello, casi todos los resultados de los sistemas de captura ópticos necesitan una post-producción para analizar, procesar y limpiar la información antes de ser utilizados.

1988: deGraf/Wahrman — Mike, la Cabeza Parlante

Mike talking head (http://goo.gl/1SY5T6)

En 1988, deGraf y Wahrman desarrollaron Mike the Talking Head para Silicon Graphics que permitía mostrar las  capacidades en tiempo real de sus nuevas máquinas 4D. Mike estaba dirigido por un controlador diseñado para  manejar varios parámetros de la cara del personaje (boca, ojos, expresión y posición de la cabeza). El hardware de  Silicon Graphics proporcionaba una interpolación en tiempo real de las expresiones faciales y geometría de la  cabeza del personaje del usuario. Mike fue mostrado en público en la conferencia de SIGGRAPH, donde además se  demostró que la tecnología mocap ya estaba preparada para su explotación comercial.

1988: Pacific Data Images — Waldo C. Graphic

2  Waldo C.Graphic

Waldo C.Graphic

En 1985, la productora Jim Henson Productions intentó crear versiones virtuales de sus personajes. Consiguieron un éxito limitado, principalmente debido a las capacidades limitadas de la tecnología en ese momento. Finalmente, en 1988, con los equipos 4D de Silicon Graphics Institute (SGI), y con la pericia de la productora Pacific Data Images, encontraron una solución viable, conectando un dispositivo de entrada de ocho grados de libertad confeccionado a medida a través del cuadrante estándar SGI y fueron capaces de controlar la posición y los movimientos de la boca de un personaje a baja resolución en tiempo real. De esta forma surge la conocida marioneta virtual Waldo C. Graphic, que capturaba el movimiento de las manos de un titiritero con un dispositivo denominado Waldo, y después se interpretaban en un ordenador.

Waldo C. Graphics y el equipo de captura                  

La productora Pacific Data Images, desarrolló un exoesqueleto plástico para la parte superior del cuerpo humano con objeto de capturar los movimientos del pecho, cabeza y brazos, de manera que los actores podían controlar los personajes virtuales mimetizando sus movimientos. Los movimientos corporales se adquirían a través de potenciómetros en la capa de plástico. El traje fue utilizado en numerosos proyectos, aunque no estaba concebido como el dispositivo de rastreo perfecto ya que “el ruido” de circuitos y el diseño inadecuado del traje desvirtúa los resultados finales.

1989: Kleiser-Walczak — Dozo

En 1989, Kleiser-Walczak creó Dozo, una animación computacional en tiempo-no-real de una mujer bailando delante de un micrófono mientras cantaba para un videoclip. Para conseguir un movimiento humano realista, se utilizaron técnicas de mocap. Basado en experimentos del mocap de Kleiser[1] en Digital Productions y Omnibus (ambas desaparecidas), eligen una solución óptica que usa varias cámaras para triangular pequeños trozos de cinta reflectante distribuidos en el cuerpo. La salida resultante es la trayectoria 3D de cada reflector en el espacio. Este proyecto tuvo problemas con la oclusión de los marcadores, lo cual requirió un post-procesamiento a mano bastante largo.

1991: Videosystem — Mat el Fantasma

Conocidas las posibilidades de personajes animados gracias a técnicas de captura de movimientos y actuación en Waldo C. Graphic, Videosystem, una productora francesa de video y gráficos por ordenador, atrajo la atención sobre su división de animación por ordenador encargada del campo de las «marionetas virtuales». Su primer éxito fue la creación de Mat le Fantôme. Mat era un fantasma verde que interactuaba con actores y marionetas reales en un programa diario infantil llamado Canaille Peluche. Usando DataGloves, joysticks, rastreadores Polhemus, y pedales de percusión MIDI, los titiriteros interactivamente dotaban de movimiento a Mat, incrustándolo en el video previamente grabado de los actores reales. Dado que no había post-renderizado, las secuencias de animación eran generadas en el momento en el que los intérpretes conseguían una buena toma.

Videosystem, ahora conocido como MediaLab[2], ha continuado el desarrollo del sistema de interpretación hasta el punto de ser una herramienta de producción fiable, habiendo producida con ella varias horas de animación en total, con más de una docena de personajes.

Típicamente, cada personaje es controlado por varios titiriteros trabajando coordinadamente. Dos titiriteros controlaban las expresiones faciales, el play-back y los efectos especiales como las transformaciones en la forma de Mat, o burbujas desde la boca de un pez, y el actor mimetiza los movimientos de la parte superior del cuerpo, mientras lleva puesto un traje con rastreadores electromagnéticos (Polhemus) en el torso, brazos y cabeza. Los movimientos de los dedos, del joystick, etc…, de los titiriteros también son capturados y transformados en expresiones faciales y efectos del personaje, mientras el movimiento del actor es directamente mapeado al cuerpo del personaje.

1992: SimGraphics — Mario

SimGraphics ha estado durante mucho tiempo en el mercado de la Realidad Virtual, habiendo construído sistemas alrededor de algunos de los primero VPL DataGloves en 1987. Alrededor de 1992 desarrollaron un sistema de rastreo facial llamado face waldo. Usando sensores mecánicos adheridos a la barbilla, labios, mejillas y cejas, y sensores electromagnéticos en la estructura del casco, consiguieron capturar la mayor parte de los movimientos de la cara y mapearlos  para aplicarlos a un modelo virtual en tiempo real. La importancia de este sistema fue que un actor podía manipular todas las expresiones faciales de unos personajes sólo mimetizando lo que quería que hiciese, lo cual supone una interfaz completamente natural.

Uno de los mayores éxitos con este proyecto fue la interpretación en tiempo real de Mario Bros. Dirigido por un actor detrás del escenario usando el face waldo, Mario lograba conversar con los miembros de la audiencia, respondiendo a sus preguntas y comentarios. A partir de ahí, SimGraphics se ha concentrado en la animación en directo, desarrollando personajes para conferencias, televisión y otros entretenimientos en directo. Durante los últimos años, SimGraphics continua trabajando en el face waldo, mejorando la fiabilidad y el confort.

 1992: Brad deGraf — Alive!

Después del Mike the Talking Head, desarrollado por deGraf and Wahrman’s, Brad deGraf continuó trabajando en solitario, desarrollando un sistema de animación en tiempo real, ahora conocido como Alive! Para un personaje de Alive!, deGraf desarrolló un dispositivo especial para mano con cinco émbolos que representaban los dedos de un titiritero. El dispositivo era usado para controlar las expresiones faciales de una nave espacial virtual, la cual, como Mario, era utilizada por una compañía para sus conferencias.

DeGraf comienza a trabajar en la productora Colossal Pictures, donde usó Alive! para animar a “Moxy”, un perro generado por ordenador que tenía una serie para Cartoon Network. Moxy es interpretado en tiempo real para publicidad, pero post-renderizado para la serie. Los movimientos del actor eran capturado a través de un sistema de captura electromagnética con sensores en las manos, pies, torso y cabeza.

1993: Acclaim

En el congreso SIGGRAPH 93, Acclaim presentó una animación realista y compleja de dos personajes realizada completamente con mocap. Durante los años anteriores Acclaim había desarrollado un sistema de rastreo óptico de alta definición, superior a los anteriormente citados y capaz de seguir  hasta 100 marcadores simultáneamente en tiempo real. Acclaim utilizó el sistema que desarrolló principalmente para generar secuencias de movimiento de personajes para videojuegos.

[1] Kleiser-Walczak Construction: 1989 “Don’t Touch Me”

[2] http://histoire3d.siggraph.org/index.php?title=Medialab