Parece carne, pero no lo es. En la etiqueta pone "jamón de york", pero la mitad de los ingredientes son almidones, fécula de patata, conservantes, colorantes y aditivos. Con las noticias generadas por inteligencia artificial (IA) pasa lo mismo: fingen ser algo que no son. Algo así vino a decir el columnista de tecnología de The New York Times Kevin Rose en su podcast Hard Fork.

Los modelos de IA generativa, ya sean ChatGPT, Bard, LlaMa u otros, son, como dice el profesor Gary Marcus, "máquinas gigantes de autocompletar". No entienden nada de lo que escriben, simplemente predicen la sucesión de palabras que deben generar ante una determinada petición. Lo hacen de forma bastante acertada, más que los sistemas conversacionales anteriores.

Ese es parte del problema: que las respuestas de estos nuevos modelos de IA suenan convincentes, cuando a menudo contienen información errónea. Este tipo de modelos "son unos mentirosos descarados, constantes e incurables", escribe Colin Fraser, científico de datos de Meta, en su blog. "Es una característica, no un error", añade.

Fraser señala que la IA generativa no está diseñada para arrojar resultados veraces. "No está ni del lado de lo verdadero ni de lo falso, sino del lado de predecir la siguiente palabra más probable dadas las palabras anteriores". Según los datos que se hayan usado para entrenar o crear el modelo, este seleccionará o inventará cosas que se adapten a ese propósito".

Cuando una tecnología así se traslada a la generación de contenido noticioso, sucede lo obvio: que es fuente de errores, mentiras e inventos. Medios como CNET, Gizmodo y otros se apresuraron a incorporar la IA generativa para automatizar la creación de contenido. Las historias resultantes contenían inexactitudes, errores y/o fragmentos que parecían haber plagiado otras fuentes.

Algunos de dichos medios han reculado y han asegurado que no publicarán historias enteramente escritas por IA, ni imágenes o vídeos que la empleen. Otros la usan para generar ideas para nuevas piezas y un sinfín de tareas.

Bola de nieve

En realidad, el uso de inteligencia artificial en los medios no es nada nuevo. Los Angeles Times usa desde 2014 un bot -el QuakeBot- capaz de reportar terremotos de magnitud superior a 3.0 en tiempo récord. La agencia Associated Press (AP) lleva desde 2015 generando contenido automatizado para historias factuales (predicciones meteorológicas o resultados deportivos o de la bolsa, por ejemplo) y también para producir informes de ganancias trimestrales para miles de compañías. El Washington Post inauguró su bot Heliograf en 2016 y cubrió con él un 100% de las carreras electorales de 2016, frente al 15% que alcanzó a reportar en 2012.

En España, la empresa Narrativa lleva años proporcionando tecnologías de generación automatizada de contenido a diferentes medios de comunicación. También está extendido el uso de IA en la industria mediática para transcribir y traducir contenido, analizar grandes volúmenes de datos en investigaciones periodísticas, generar soportes gráficos y visualizaciones, apoyar la verificación de hechos, moderar contenido, distribuir noticias, automatizar campañas de marketing, etc.

Sin embargo, la disponibilidad masiva de herramientas como ChatGPT o Midjourney que permiten generar texto, imagen y video de forma más realista y precisa que las anteriores, es lo que marca el punto de inflexión en este momento. No solo es que cualquier medio pueda adoptar estas herramientas, sino que hacerlo sin conocimiento, sin asesoría, sin adaptación y sin supervisión humana, desembocará en una oleada de publicación de noticias y otros tipos de contenido erróneos, engañosos o directamente fraudulentos, como ya ha empezado a suceder.

Mientras tanto, quienes se dedican a la difusión de falsedades, a generar ruido y a tratar de manipular a la opinión pública, tendrán en la IA generativa una aliada que multiplicará la eficiencia de su trabajo. La bola de nieve de contenidos automatizados con información errónea, contenido engañoso, mentiras y falsedades embarrará aún más un ecosistema informativo ya enfangado y sobresaturado.

Brecha de confianza

Como consecuencia, será cada vez más difícil distinguir entre la información veraz y la desinformación. Esto en buena medida ya está sucediendo, y las nuevas tecnologías siguen acelerándolo.

"Es una de mis áreas de mayor preocupación. La capacidad más general de estos modelos para manipular y persuadir, para proporcionar una especie de desinformación de forma interactiva, uno a uno", declaró Sam Altman, CEO de OpenAI, ante el Senado de EEUU el pasado mayo.

Es previsible que, en un futuro no muy lejano, solo puedan acceder a información veraz quienes puedan permitirse pagar por medios de comunicación confiables con contenidos contrastados. Esto exacerbará la brecha digital y agrandará la brecha de la IA.

Dicha brecha ya se da, en parte debido a las suscripciones que amurallan el contenido de muchos medios, y también a prácticas que violan la neutralidad de la red (por ejemplo, las políticas 'tipo cero' de operadoras que no cobran datos por usar ciertas aplicaciones o servicios como WhatsApp, Instagram o Spotify). Esto solo aumentará el impacto de la desinformación, en detrimento de la información veraz, que acabará siendo un artículo de lujo.

¿Y en qué estado estarán los medios de comunicación? ¿Hará la IA, como promete, que aumenten exponencialmente sus ganancias? ¿O los gigantes tecnológicos seguirán expoliando su contenido para mejorar sus modelos de IA y acabarán fagocitando el mercado mediático?

Unidos contra el expolio

Por el momento, los hechos apuntan más hacia lo segundo. De ahí que el pasado 4 de septiembre, 26 asociaciones periodísticas de todo el mundo publicaran el comunicado Global Principles for Artificial Intelligence (AI): una lista de principios globales para la IA que tiene por objetivo "garantizar la capacidad continua de los editores para crear y difundir contenido de calidad, al tiempo que se facilita la innovación y el desarrollo responsable de sistemas de IA confiables".

El documento es una declaración de intenciones no contra la IA -claro está- sino contra la apropiación de su contenido por parte de las grandes empresas desarrolladoras de IA. Como es bien sabido, OpenAI, Google, Meta y otras han estado usando sin permiso ni retribución el material generado por las organizaciones periodísticas para entrenar sus grandes modelos de lenguaje, los llamados LLM como ChatGPT o Dall-e. Ahora, estos medios reclaman lo que les pertenece.

Los firmantes defienden que su propiedad intelectual debe ser reconocida y respetada, como "producto de importantes inversiones para proporcionar contenido periodístico y creativo de calidad". "Los sistemas de IA son tan buenos como el contenido que utilizan para entrenarlos y, por lo tanto, los desarrolladores de tecnología de IA generativa deben reconocer y compensar a los editores en consecuencia por el enorme valor que su contenido aporta al desarrollo de estos sistemas", señalan.

El texto lo han suscrito no solo medios informativos sino también de entretenimiento, revistas y libros y el sector editorial académico. Representan a cientos de cabeceras, muchas de ellas europeas, y a miles de profesionales creativos.

En julio, fueron miles de autores de ficción, no ficción y poesía -entre ellos Dan Brown y Margaret Atwood- quienes reivindicaron lo propio. Algunos de ellos ya han pasado a la acción a través de demandas colectivas contra OpenAI por violar las leyes de propiedad intelectual. Antes lo habían hecho ya grupos de artistas y también programadores informáticos.

Otra de las demandas colectivas proviene de usuarios de a pie, que acusan a la compañía creadora de ChatGPT y Dall-e de saquear internet, del "robo sin precedentes de información privada y protegida por derechos de autor perteneciente a personas reales" y de "malversar y apropiarse indebidamente de datos personales de millones de usuarios, extrayéndolos de internet sin previo aviso o consentimiento".

Los medios de comunicación se lo están pensando. Algunos como el Times y The Wall Street Journal han reconocido estar también estudiando acciones legales contra OpenAI. En España, la Asociación de Medios de Información (AMI) presentó en julio una queja contra Google. Más concretamente, contra su herramienta Bard de IA generativa, que -según denuncian- "vampiriza los contenidos de los medios de información, sin ni siquiera citar sus fuentes".

Crisis profesional

Mientras tanto, los que salen perdiendo son los de siempre: las trabajadoras y los trabajadores. Los profesionales de los medios, y en específico los periodistas, sufren las consecuencias en un entorno cada vez más precarizado, con una creciente carga de trabajo, contraprestaciones a la baja, demanda de habilidades multitarea, temporalidad, y un mercado obsesionado con la reducción de costes y con el aumento de la productividad.

Esto lleva a un alto porcentaje de periodistas a sufrir burnout, el llamado 'síndrome del trabajador quemado'. En una encuesta de la Federación Europea de Periodistas en 19 países europeos, el 100% de los entrevistados respondieron que las condiciones laborales de los periodistas han tendido a deteriorarse con el paso de los años en su país.

Eso fue en 2016. Imaginen cómo están las cosas ahora, después del azote de la pandemia de COVID-19. El pasado 13 de septiembre, el Instituto Reuters de la Universidad de Oxford publicaba un texto de título revelador: El hechizo se ha roto: cinco periodistas quemados cuentan por qué dejaron el trabajo de sus sueños.

Si el futuro del derecho a la información depende de profesionales que filtren y verifiquen los hechos, que sean capaces de analizarlos y de ponerlos en contexto, y que dispongan de tiempo para investigar más allá de la inmediata actualidad, habrá que empezar por mejorar sus condiciones, en lugar de tratar de automatizarlos.

Como declaró a Axios la presidenta y CEO de The New York Times, Meredith Kopit Levien, "no se pueden poner robots en la primera línea de Bakhmut en Ucrania para que te digan lo que está sucediendo allí y te ayuden a entenderlo". Por mucho colorante rojo que le pongas a la fécula de patata, nunca será carne. Por mucho ChatGPT que incorporen los medios, lo único que podrán reemplazar es a quienes meramente se dedican a hacer copiapegas, y eso no es periodismo.