Ondas de choque por José Luis de Vicente

¿Cómo se digitaliza a un actor? Del Motion Capture al cine de Kinect

18 enero, 2013 01:00

En la inexplicable Holy Motors, la película más asombrosa de 2012, Denis Lavant interpreta a un hombre que cambia de identidad una decena de veces al día. Esta especie de superactor recorre París en una limosina, introduciéndose durante breves momentos en la vida cotidiana de los que le rodean.

En este gran homenaje al arte y al oficio de la interpretación, el realizador Leos Carax ha encontrado un momento para acordarse de los trabajadores más invisibles del cine de nuestro tiempo. Hollywood se ha fijado en ocasiones en el trabajo discreto y poco reconocido de los actores de doblaje o los especialistas, pero Holy Motors incluye el que debe ser, probablemente, el primer retrato en la gran pantalla de los artistas del Motion Capture.

Los "titiriteros digitales" se enfundan en un traje negro con puntos blancos repartidos por todo su cuerpo, y realizan movimientos y gestos que son escaneados por un ordenador. El objetivo es trasladar estos movimientos a las figuras animadas en 3D habituales en las grandes superproducciones o en los videojuegos. Así sus movimientos son más sofisticados y complejos, pero también resulta más barato y rápido producir animaciones digitales.



Los artistas del Motion capture son el alma de los actores virtuales, y han dejado su huella sobre algunas de las cintas de más éxito y más recordadas del siglo XXI. No se puede entender las adaptaciones de Tolkien firmadas por Peter Jackson, desde la trilogía de El Señor de los Anillos al reciente Hobbit, sin el trabajo de Andy Serkis, el actor que hay al otro lado del ordenador en las escenas en que aparece Gollum, y al que también pone voz. Buena parte del Avatar de James Cameron, por ejemplo, es en esencia interpretación capturada y escaneada digitalmente. A veces las propias estrellas de Hollywood se han metido en el traje de captura como experimento para interpretar sirviéndose de otras caras y otros cuerpos; en The Polar Express, Tom Hanks utilizó la técnica para interpretar hasta a seis personajes distintos.

No todos los animadores de Hollywood son partidarios de la captura de movimiento. Es conocido que Pixar no la utiliza, y en los créditos de sus producciones afirma orgullosamente que sus películas son 100 por 100 animadas a mano. Nadie dudaría sin embargo que es una parte importante del repertorio de recursos del cine hoy.

¿Lo va a seguir siendo en el futuro, sin embargo? ¿Es todavía la mejor manera de capturar digitalmente la interpretación de un actor para moldearla después en el terreno de lo virtual?

En los últimos dos años una nueva clase de cámara -un producto de electrónica de consumo barato, en realidad- está fascinando a los tecnólogos creativos, por su peculiar estética y sus posibilidades. Se trata de la Kinect, el dispositivo de la consola XBox que permite controlar los videojuegos con nuestros movimientos corporales.

Para trasladar nuestros movimientos a la pantalla, la Kinect lanza puntos de luz infrarroja sobre la habitación para entender la profundidad del espacio y la posición de los que se sitúan frente a la cámara. El efecto colateral es que el dispositivo realiza una especie de "molde" digital, un vaciado de los jugadores. Si recuperamos esa información podemos esculpirla y reelaborarla más tarde.

Si el motion capture permite a un actor controlar una marioneta digital, la Kinect va más allá; podríamos decir que realiza una escultura de los que se sitúan frente a ella, 24 veces por segundo. James George, un artista y programador neoyorquino, y el documentalista Jonathan Minard están explorando la Kinect no como controlador de videojuegos, sino como dispositivo cinematográfico.

Clouds es un documental financiado por Kickstarter en el que George y Minard entrevistan a decenas de artistas, críticos y comisarios del ámbito del New Media, para hablar de la historia y el presente del arte digital. En el documental participan escritores de ciencia ficción como Bruce Sterling, artistas como Golan Levin y Casey Reas y figuras relevantes del medio como Regine Debatty, la editora del popular blog We Make Money Not Art. Todos ellos se sentaron no frente a una cámara, sino frente a dos, que rodaban simultáneamente las entrevistas.

La primera es una cámara digital estándar DSRL, que registra en vídeo la apariencia de los protagonistas. La segunda es una Kinect, que mide la profundidad del plano, la distancia tridimensional hasta al objetivo de todo lo que aparece frente a él. La peculiar estética de Clouds es el resultado de fusionar la información que producen las dos cámaras. No sólo vemos a los entrevistados, sino que percibimos la profundidad de su cuerpo.



Una vez capturada toda la información, como en un sistema de motion capture, los realizadores no tienen que conformarse con los planos que grabaron; al haber generado todo un modelo tridimensional dentro del ordenador, pueden acercarse o alejarse de los sujetos, cambiar la perspectiva, realizar movimientos de cámara que no hicieron en aquel momento Clouds abre interesantes vías para un nuevo lenguaje de cine digital, que posea tanto la riqueza y matices de la interpretación "fotográfica" como la flexibilidad de la animación digital.

En los próximos meses Clouds se presentará en festivales no como un largometraje al uso, sino como una base de datos de entrevistas hiperenlazadas, que los visitantes podrán navegar a través de un software. Mientras tanto, James Georg y Jonathan Minard han liberado en Internet la tecnología que han desarrollado, RGB+D Toolkit, para que cualquiera pueda utilizar la técnica en sus proyectos. Ya existen ver un buen número de ejemplos en publicidad, videoclips y piezas de animación.



Más en opinión

Blog del Suscriptor
Image: Murakami. Después del terremoto

Murakami. Después del terremoto

Anterior
Image: Viridiana (Valencia)

Viridiana (Valencia)

Siguiente