El gobierno español ha decidido situarse en primera línea del debate sobre la inteligencia artificial con una propuesta legislativa que impone sanciones multimillonarias (hasta 35 millones de euros o el 7% del volumen global de negocio de la empresa) a quienes no etiqueten de manera adecuada los contenidos generados por inteligencia artificial.

La norma, presentada como pionera en Europa, pretende garantizar que el ciudadano pueda distinguir en todo momento entre lo que ha sido creado por un humano y lo que es fruto de un algoritmo. Sobre el papel, el objetivo parece encomiable: en un contexto de desinformación creciente, de campañas electorales contaminadas por bulos y de proliferación de deepfakes cada vez más sofisticados, el etiquetado obligatorio podría convertirse en una herramienta para reforzar la confianza en el espacio público.

Sin embargo, la pregunta clave es hasta qué punto una medida de este tipo puede ser eficaz en la práctica y cuáles serán sus consecuencias reales para la economía digital en España. La experiencia demuestra que, cuando un gobierno intenta adelantarse a la evolución tecnológica con normas estrictas, corre el riesgo de generar un marco que se queda obsoleto demasiado rápido o que introduce costes de cumplimiento difíciles de asumir, especialmente para las pequeñas y medianas empresas.

España ha decidido ir un paso más allá en materia de contenidos generados artificialmente, buscando liderar la respuesta a los peligros que plantea la desinformación.

Un deepfake electoral difundido desde un servidor en otro país, por ejemplo, difícilmente se verá afectado por una sanción impuesta por la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). La realidad es que la tecnología no entiende de fronteras, mientras que las multas sí.

El regulador europeo ya había marcado un camino con la aprobación de la AI Act, que clasifica los usos de la inteligencia artificial en función de su nivel de riesgo, y establece obligaciones más estrictas para los sistemas considerados de alto impacto. España ha decidido ir un paso más allá en materia de contenidos generados artificialmente, buscando liderar la respuesta a los peligros que plantea la desinformación.

Pero conviene preguntarse si esta iniciativa responde a una estrategia clara, o más bien a una pulsión política por aparecer como “más duros que nadie” frente a un problema que preocupa al ciudadano medio: básicamente, legislar en función de la supuesta “alarma social”. En el plano comunicativo, las sanciones de decenas de millones de euros suenan efectivas. En el plano operativo, sin embargo, la aplicación es más complicada.

Las grandes plataformas tecnológicas, que ya están acostumbradas a lidiar con marcos regulatorios diversos, podrán desplegar sistemas de etiquetado más o menos efectivos, aunque en muchos casos con limitaciones técnicas claras: la generación y la manipulación de imágenes, vídeos o textos es tan sencilla que resulta difícil trazar una marca digital que no pueda ser borrada o alterada.

Para las startups y PYMEs, en cambio, este tipo de requisitos puede suponer un obstáculo considerable: además del coste de implementar soluciones de detección o etiquetado, se enfrentan a la incertidumbre jurídica de qué se considera exactamente “contenido generado por inteligencia artificial” y cómo debe presentarse al usuario final. El riesgo, por tanto, es que el marco legal termine desincentivando la innovación en un sector en el que España, de por sí, no está precisamente en la vanguardia.

En paralelo, el propio Gobierno ha aprobado subvenciones por valor de unos 150 millones de euros para ayudar a las empresas a desarrollar o integrar tecnologías de inteligencia artificial. Aquí se observa una contradicción interesante. Por un lado, se intenta impulsar la innovación con fondos públicos, mientras que por otro, se amenaza con sanciones desproporcionadas que pueden disuadir a los mismos actores que se pretende beneficiar.

El dilema que enfrenta España es, en última instancia, el mismo que enfrenta Europa en su conjunto: cómo proteger a los ciudadanos frente a los riesgos reales de la inteligencia artificial

No es extraño que el ecosistema empresarial se queje de que la estrategia gubernamental carece de coherencia: ¿queremos fomentar la adopción de la inteligencia artificial en la economía española, o queremos crear un marco tan rígido que termine ahuyentando a los inversores y emprendedores?

En países como Estados Unidos o Reino Unido, el debate sobre el etiquetado de contenidos generados por inteligencia artificial existe, pero se aborda desde la perspectiva de la autorregulación, de la cooperación con la industria y del desarrollo de estándares técnicos abiertos. En la Unión Europea, en cambio, predomina la lógica de la regulación preventiva, con la esperanza de que un marco estricto evite daños futuros.

El problema es que, si los marcos son demasiado onerosos, el resultado es que la innovación se desplaza hacia otras geografías con regulaciones más flexibles y fáciles de cumplir. Europa ya ha vivido esta experiencia en otras áreas de la tecnología: fuimos capaces de diseñar la regulación más avanzada en materia de privacidad con el GDPR, pero no de crear un ecosistema digital capaz de competir con los gigantes estadounidenses o chinos.

El dilema que enfrenta España es, en última instancia, el mismo que enfrenta Europa en su conjunto: cómo proteger a los ciudadanos frente a los riesgos reales de la inteligencia artificial sin sofocar las posibilidades de que el continente desarrolle sus propios campeones tecnológicos. El etiquetado obligatorio de contenidos generados por inteligencia artificial puede ser un instrumento útil, pero difícilmente resolverá el problema de la desinformación global, y sí puede añadir trabas significativas a un tejido empresarial que necesita flexibilidad para crecer.

La lucha contra la desinformación no se gana con multas astronómicas ni con normas nacionales que resultan imposibles de aplicar en la práctica. Se gana con educación digital, con alfabetización mediática, con transparencia de las plataformas y con cooperación internacional. Convertir a AESIA en un policía del etiquetado de contenidos puede sonar bien en titulares, pero no parece el mejor camino para situar a España en la vanguardia de la revolución tecnológica. Más bien corre el riesgo de consolidar una vez más el papel que ya conocemos demasiado bien: el de un continente que regula mucho, pero innova poco.

***Enrique Dans es profesor de Innovación en IE University.