Publicada
Actualizada

Brad Pitt contra un zombi ninja. Una nave espacial atacando a un grupo de romanos. Doraemon peleando contra Goku. Pueden parecer ideas nacidas de un niño de 12 años, pero no: son ejemplos de lo que puede hacer Seedance 2.0.

La IA multimodal de ByteDance se ha convertido en un auténtico fenómeno viral, que ha dado lugar a una buena cantidad de vídeos que han inundado las redes sociales. Vídeos increíblemente detallados y bien hechos, que han hecho temblar a Hollywood.

Y es que Seedance 2.0, al igual que pasó con ChatGPT en sus inicios, ha suscitado un gran interés no solo por sus impresionantes capacidades para generar contenido, sino por la alta calidad de los resultados obtenidos.

Vídeos súper detallados con Seedance 2.0

Primero. ¿qué es Seedance 2.0? Esta es una herramienta de generación de vídeo por inteligencia artificial, basada en un modelo multimodal que permite introducir imágenes, vídeos de referencia, audio y texto.

Es un rival directo de Sora de OpenAI y Veo de Google, con la peculiaridad de tener una impresionante precisión a la hora de generar escenarios y personajes, salvando algunos de sus problemas más comunes.

A la hora de generar vídeos con una inteligencia artificial, es tremendamente fácil ver problemas en los rasgos faciales, artefactos parpadeantes y sobre todo, una inconsistencia generalizada en elementos del metraje.

Seedance 2.0 promete ser un modelo de altas capacidades, que puede generar vídeo en resolución 2K y con un grado de consistencia inusitado, incluyendo el sistema multi-lens storytelling, que ayuda a mantener los elementos de la imagen.

Si el usuario incluye cambios bruscos de cámara o en su defecto, planos cambiantes con cortes en el metraje, se pueden dar problemas para mantener ciertos elementos; ropa, fondos, etcétera.

El modelo de ByteDance presume precisamente de ser capaz de mantener todos estos elementos o la mayoría de ellos si se producen cambios en el plano o si hay sucesivos cortes de cámara.

A esto le sumamos que este es un modelo multimodal. Es decir, no requiere únicamente de texto para crear vídeo. Se pueden subir hasta una docena de archivos para recrear metrajes concretos, incluso usando audio u otros vídeos.

La explosión viral

Atrás quedaron los días en los que Will Smith comiendo espaguetis nos provocaba pesadillas. Si Veo y Sora han sentado un precedente peligroso para la industria del entretenimiento, Seedance 2.0 lo refina.

No faltan ejemplos que han amasado una grandísima cantidad de tracción en plataformas como X o TikTok. El usuario Ruari Robinson, cineasta y filmmaker, explica con ejemplos qué es capaz de hacer este modelo.

Con un simple prompt de dos líneas, Robinson pudo crear un vídeo de Brad Pitt peleándose contra Tom Cruise en la azotea de un edificio. Hay ciertos errores inevitables, pero el resultado es sencillamente impresionante.

Además del realismo de la imagen, tenemos unos cambios de plano completamente realistas, que mantienen a los personajes entre corte y corte junto a un nivel de detalle impresionante. Son, eso sí, 15 segundos de metraje.

Tal es el nivel que maneja Seedance 2.0 que en otro vídeo, ambos hablan con sus voces originales en plena pelea, mostrando diálogos propios de una película de acción.

Tenemos de todo. Naves espaciales contra ejércitos romanos, Goku contra Doraemon o una versión en imagen real de un combate del anime de Dragon Ball, replicando las películas clásicas de Bruce Lee, planos incluidos.

Otro de los grandes ejemplos que podemos ver muestra al mítico personaje de Heisenberg, interpretado por Bryan Cranston mirando y hablando a cámara. Todo ello sin los típicos errores de generación de vídeo por IA.

Como es obvio, todos estos ejemplos infringen numerosas propiedades intelectuales, tanto de obras conocidas como de sus protagonistas, lo que ha generado un amplio debate entre los usuarios. De momento, su uso está restringido a unos pocos usuarios en China.