Fotomontaje con el logo de X y la cara de Musk.

Fotomontaje con el logo de X y la cara de Musk. Manuel Fernández Omicrono

Software

La guerra de Irán se apodera de X (antes Twitter): la red social de Elon Musk se inunda de miles de vídeos generados por IA

El chatbot Grok está alimentando una oleada de desinformación producida en medio del conflicto con Oriente Medio al calificar de reales contenidos falsos.

Más información: Así es como los 'hackers' están utilizando la inteligencia artificial para estafarte sin que te enteres: "Nadie está a salvo"

Publicada

Cuando las principales herramientas de creación de vídeos con inteligencia artificial (IA) como Sora de OpenAI o Veo de Google comenzaron a proliferar, con ellas también lo hizo la desinformación en redes sociales como X (antes Twitter). Y es que la preocupación en torno a este tema ha ido en aumento con el conflicto de Irán, Israel y Estados Unidos.

Una investigación del portal WIRED pone el foco en esto mismo, recalcando la forma en la que X: la red social de Elon Musk antes conocida como Twitter, está siendo un auténtico nido de desinformación promovida por la inteligencia artificial.

Y no es solo contenidos generados por IA por parte de cuentas afiliadas al régimen iraní. El chatbot Grok, a menudo usado por los usuarios para verificar datos, no ha cesado en dar información errónea en la plataforma.

La IA vierte desinformación en X

Un ejemplo de esta situación se pudo observar el pasado 8 de marzo. El analista OSINT centrado en contenidos militares Tal Hagin puso a prueba a Grok usando varios de los vídeos que proliferaban por X referentes al conflicto de Irán.

Y lo hizo citando un vídeo de un barrio destruido. La cuenta que lo publicó afirmó que ese era el estado de Tel Aviv después de la respuesta militar iraní. El chatbot falló en todas las peticiones de Hagin.

Grok falló a la hora de fechar el vídeo y de dar la ubicación correcta del mismo, pese a que el vídeo había sido publicado por un medio de comunicación relacionado con el régimen. Lo peor fue que el chatbot llegó a publicar una imagen generada por IA de un edificio destruido como prueba.

Esta es solo la punta de lanza de una situación que no ha hecho más que agravarse a medida que el conflicto en Oriente Medio se ha recrudecido. Numerosas cuentas han publicado una gran cantidad de vídeos de supuestos ataques y represalias generados con IA.

Gracias a que el uso de las herramientas de generación de vídeo por inteligencia artificial se ha vuelto más y más accesible con el paso de los meses, creadores de contenido han intentado monetizar el conflicto con posts virales usando metrajes falsos.

No son pocos los ejemplos de vídeos creados con estas herramientas, así como imágenes falsas fabricadas con herramientas similares para influir en el conflicto iraní, ya sea para ganar tracción en Internet o para intentar promocionar discursos políticos de uno y otro bando.

Tal ha sido la problemática que Nikita Bier, responsable de producto de X, anunció que paralizarían las políticas de monetización de ingresos para creadores que no incluyeran las pertinentes etiquetas de IA en sus vídeos relacionados con conflictos armados.

La idea, dijo Bier, era "mantener la autenticidad del contenido en timeline y evitar la manipulación". Los usuarios que publiquen esta clase de vídeos generados por IA sin indicar su origen quedarán suspendidos temporalmente del programa, por un plazo de 90 días.

En caso de continuar con estas prácticas, explorarán la imposición de una suspensión permanente del programa. X será notificada en base a las publicaciones con vídeos que tengan notas de la comunidad o que tengan señales de uso de herramientas de IA generativa.

Varios de estos vídeos, que acumulan millones de visualizaciones en X, muestran supuestos bombardeos sobre Tel Aviv y otras ciudades israelíes o iraníes. En muchos de estos casos, Grok fue consultado por los usuarios para verificar dichos metrajes sin éxito.

En varios de estos casos, Grok afirmó que estos vídeos eran reales pese a ser claramente falsos. Uno de los más famosos mostró al Burj Khalifa de Dubái en llamas, tras el supuesto ataque de un dron. El vídeo fue creado por IA y Grok afirmó que era real en varias publicaciones.

En el otro lado del problema están las cuentas relacionadas con el régimen iraní, que compartieron vídeos contra el gobierno de los Estados Unidos, posicionando a Trump en situaciones comprometidas, haciéndolas pasar por verdaderas.

Hagin ha advertido de los problemas que presenta esta situación. Cada vez es más fácil crear imágenes de IA generadas en cuestión de segundos por usuarios que cuentan con no una, sino varias herramientas gratuitas disponibles en Internet.

A eso le sumamos los avances de la inteligencia artificial, capaz de crear imágenes cada vez más realistas en un lapso de tiempo menor. Todo ello, por supuesto, sin consecuencias ni regulaciones que impidan estas prácticas.

Debemos recordar que ciertas prácticas de X favorecen esta tendencia. El programa de monetización para creadores es un incentivo para que cuentas que pagan la suscripción premium de X puedan generar ingresos por sus publicaciones virales.

La suscripción, además, aporta un plus de visibilidad a las cuentas de pago que impulsa todavía más estos contenidos desinformativos. Tendencias que podrían extenderse a otras redes sociales consideradas centros de información para muchos usuarios.