Montaje de Bush Legend, el aborigen 'influencer' que no existe.

Montaje de Bush Legend, el aborigen 'influencer' que no existe. Fotomontaje con IA Omicrono

Tecnología

Bush, el 'influencer' aventurero que resultó ser IA: por qué hacer 'deepfakes' es tan fácil que te acabarán engañando en redes

En Internet se pueden encontrar una gran variedad de vídeos hechos con IA tan avanzados que la gente piensa que son reales, lo que supone un problema.

Más información: De aconsejar "matar a tu marido" a robar dinero: alertan que una IA desajustada puede dar recomendaciones fatales

Publicada

La inteligencia artificial (IA) sigue avanzando a pasos agigantados, inundando desde el trabajo hasta la vida diaria. Uno de los usos más populares de esta tecnología es la creación de vídeos que, gracias a apps como Sora de OpenAI, cada vez son más realistas y se usan para engañar a los usuarios en las redes sociales.

Los vídeos generados por IA son más comunes que nunca: han invadido las redes sociales mostrando contenido de todo tipo que se vuelven virales, como el caso de Bush Legend. De hecho, es prácticamente imposible abrir cualquier aplicación, ya sea TikTok, Instagram o X (Twitter) y no toparse con uno de ellos.

Esto se debe a que la IA ha evolucionado tanto que actualmente permite crear vídeos falsos o 'deepfakes' con una facilidad pasmosa, dando el poder a todo el mundo de generar contenidos tan realistas que a los usuarios les resulta complicado saber si es real o no.

Herramientas de inteligencia artificial como la ya mencionada Sora, Veo 3 y Nano Banana de Google sirven para generar vídeos y 'deepfakes' muy realistas en apenas unos segundos, con tan solo unas pequeñas instrucciones y a partir de imágenes o vídeos cortos.

Unos 'deepfakes' que corren como la pólvora en las redes sociales, engañando por su calidad y realismo a muchos usuarios, incluso cuando incluyen etiquetas de advertencia. Ejemplo de ello es Bush Legend, un aborigen 'influencer' hecho con IA que cuenta con cientos de miles de seguidores.

El boom de Bush Legend

Los 'deepfakes' no son nuevos, se llevan años haciendo. Se trata de unos pequeños vídeos falsos generados por inteligencia artificial que manipulan la cara e, incluso, la voz de una persona por la de otra, como de algún personaje conocido.

También se usa como herramienta para fines malintencionados, en algunos casos y para crear contenido de entretenimiento, como se puede ver en las redes sociales, donde estos vídeos cortos abundan cada vez más.

@bushlegend.offical This is a Eurasian eagle-owl. One of the largest owls in the world powerful, silent, and often unseen. Moments like this remind us that even apex birds can be vulnerable, especially around human environments. This story is about awareness, not fear. #facts #wildlife #aussie #owl ♬ Wild and powerful didgeridoo Primitive(1478108) - Shinnosuke Shibata

Un claro ejemplo de que a los usuarios les resulta cada vez más complicado distinguir los 'deepfakes', aunque estén marcados como IA, es el de Bush Legend, un aborigen 'influencer' hecho con IA que cuenta con más de 90.000 seguidores en Instagram, más de 96.000 seguidores en Facebook y más de 23.000 en TikTok.

Este 'influencer' parece real y está viviendo una auténtica explosión de fama. Se centra en contar historias sobre animales australianos y se ha vuelto viral en todo el mundo con publicaciones que cuentan con miles de reproducciones.

En los vídeos se muestra a un hombre aborigen —a veces pintado con ocre, otras con un uniforme caqui— con pelo rizado y ojos marrones presentando distintos animales autóctonos y ofreciendo datos de interés sobre serpientes venenosas, cocodrilos, loros nocturnos o arañas, por ejemplo.

Durante sus vídeos, se puede ver a Bush Legend caminando por densos bosques o conduciendo por carreteras desiertas. Incluso algunos de ellos están ambientados con instrumentos de percusión pulsantes y yidakis (didyeridú), un instrumento de viento tradicional de los pueblos aborígenes australianos.

@bushlegend.offical check out this cute little fella #animals #animalfacts #aussie ♬ Solo Digeridoo - Adam Plack & Johnny Soames

Un 'influencer' que, a pesar de contar con cientos de miles de seguidores, no existe. Incluso en la propia descripción de la cuenta se indica "Esta página utiliza imágenes generadas por IA para compartir historias sobre la vida silvestre con fines educativos y de concienciación".

El problema está en que el 'deepfake' es tan realista que, aunque haya avisos, muchos usuarios aun así piensan que Bush Legend es real y que todo lo que se muestra existe.

@bushlegend.offical this fella is a tiger snakes mates! #facts #animals #foryou #tigersnake ♬ Wild and powerful didgeridoo Primitive(1478108) - Shinnosuke Shibata

De hecho, en sus vídeos se pueden encontrar comentarios de seguidores como "tu voz es genial de escuchar" o "tienes la misma energía que tenía Steve Irwin" (un cuidador de zoológico, conservacionista y personalidad de la televisión australiana).

Incluso algunos de sus seguidores sugieren que Bush Legend necesita su propio programa de televisión. Pero nada de esto es real. La vida silvestre y el hombre que la presenta son creaciones de la inteligencia artificial.

@bushlegend.offical have a look at this beauty 😍 #Australia #fisheagle #animals #wildlife ♬ original sound - Bush legend

La cuenta está marcada como IA y en algunas publicaciones incluso se puede reconocer que todo es falso; pero muchas personas que siguen a esta cuenta no se fijan en estos detalles y no son conscientes de que no existe.

Se sabe que la cuenta de Instagram de Bush Legend es propiedad de un sudafricano residente en Aotearoa (Nueva Zelanda) y que se creó en octubre de 2025. Anteriormente, este perfil compartía reportajes de noticias satíricas generado por IA, llamado 'Nek Minute News', antes de centrarse en ofrecer contenido sobre vida silvestre.

Pero este 'influencer' falso también ha suscitado preocupaciones éticas, ya que muchos usuarios señalan que se trata de un 'Blackface' —una técnica que nació con el uso del maquillaje teatral empleado por blancos para representar a una persona negra— con inteligencia artificial.

De hecho, hay quienes se cuestionan que si se trata de una cuenta que pretende contar simplemente historias y datos de animales, "¿por qué el creador ha insistido en utilizar la imagen de un hombre aborigen?".

Más casos de 'deepfakes'

En las diferentes redes sociales se pueden encontrar muchísimos ejemplos de cómo crear 'deepfakes' realistas de forma sencilla. Incluso hay quienes suben vídeos de muestra y explican los pasos a seguir para que cualquiera pueda hacerlo.

X (Twitter) es una de las aplicaciones donde más abundan estos contenidos. Allí se pueden dar con ejemplos que enseñan a las personas a generar modelos de sí mismos a su gusto a través de diferentes apps, como PhotoAI.

Por ejemplo, que un chico 'se convierta' en una mujer con tan sólo subir un selfie o un vídeo. De esta manera, así puede crear un influencer generado 100 % con inteligencia artificial para monetizar su contenido o generar vídeos de captura de movimiento realistas.

En el caso del vídeo sobre estas líneas, su creador señala en X que se necesitan 8 minutos para generar 30 segundos de vídeo con captura de movimiento y que "la IA estima que será en tiempo real el próximo año, así que la gente podrá hacer transmisiones en vivo como esta".

También hay quien usa esta tecnología para añadir efectos a los vídeos en minutos, como convertirse en famosos, deportistas, actores o en personajes de películas muy conocidas, como Gollum de El Señor de los Anillos o en un Na'vi de Avatar, entre otros.

Para esto hay que seguir unos sencillos pasos: desde grabarse un vídeo de uno mismo, ya sea solo rostro o cuerpo completo, generar una imagen de personaje realizando una captura de un fotograma de dicho vídeo, subiéndolo a Nano Banana y describiendo el personaje o efecto deseado para que cree una imagen.

Luego se pueden usar aplicaciones como Kling AI para subir el video original y la imagen del personaje para generar un 'deepfake' realista en apenas unos pocos minutos. Ejemplos de este estilo hay muchísimos, al igual que otros en los que se pueden ver diferentes celebridades, como a los futbolistas Cristiano Ronaldo y Messi, haciendo diferentes tareas.

Asimismo, hay quien usa la IA para generar vídeos para contar historias de los populares 'brainrots italianos', un fenómeno de internet que consiste en curiosas criaturas generadas por inteligencia artificial que tienen nombres de apariencia italiana, como un tiburón con piernas y zapatillas llamado Tralalero Tralala.

Incluso hay quienes usan la IA para aconsejarte dónde es mejor guardar un alimento (cebollas, patatas, tomates, leche, etcétera) en la cocina de casa o quienes la emplean para hacer vídeos de humor. Los casos son muchos y variados.

Cabe señalar que la mayoría de las principales empresas de redes sociales cuentan con políticas que exigen la divulgación del uso de IA y prohíben contenido engañoso, pero lo cierto es que estas medidas de seguridad han demostrado ser inadecuadas: cada día se publican miles de estos vídeos y muchos usuarios creen que son verdaderos.

Cómo detectarlos

Los 'deepfakes' suponen una amenaza al hacer más difícil distinguir entre lo real y lo manipulado en audio y vídeo, y hay quienes los usan para llevar a cabo ciberataques, o para manipular, alimentar campañas de desinformación y erosionar la confianza en los medios de comunicación e instituciones.

Cada vez más realistas y, por tanto, cada vez más complejos de detectar, pero no imposible. Existen una serie de aspectos que se pueden tener en cuenta para averiguar si un vídeo que se está viendo es real o si, por el contrario está fabricado con una IA.

Un 'deepfake' de una película cambiando la cara de los actores.

Un 'deepfake' de una película cambiando la cara de los actores.

En primer lugar, es importante inspeccionar el contexto que rodea la imagen. A menudo estas cuentan con texto que suele contener erratas, fallos gramaticales o una mala redacción. También es importante evaluar la imagen, si lo que se ve está bien hecho.

A menudo la IA tiene problemas a la hora de generar manos, añadiendo más dedos de los que realmente tiene el ser humano u ojos con miradas extrañas. También pueden aparecer sombras en sitios donde no serían naturales o tonos de piel que pueden parecer desiguales.

En los vídeos incluso puede que la voz y las expresiones faciales no coincidan, por lo que es importante analizar todo con detenimiento antes de darle veracidad.

Las marcas de agua se han vuelto igualmente esenciales para identificar contenido creado con inteligencia artificial, como el logo animado de Sora o las señales automáticas de Google. También plataformas como Meta o TikTok etiquetan este tipo de publicaciones.

Sin embargo, estas marcas se pueden eliminar fácilmente, por lo que la forma más fiable de saber si algo fue generado por inteligencia artificial sigue siendo que el propio creador lo revele con transparencia.