La Italia de Giorgia Meloni se ha convertido en el primer país europeo en aprobar una ley nacional integral de inteligencia artificial, adelantándose incluso a la plena entrada en vigor de la AI Act de la Unión Europea (UE).

La noticia, que ha ocupado titulares en los últimos días, es significativa por varios motivos. En primer lugar, porque Italia no suele ser precisamente un país que lidere la vanguardia tecnológica o regulatoria a nivel internacional.

En segundo, porque plantea un dilema importante: ¿tiene sentido que un Estado miembro se adelante con su propia normativa cuando ya existe un marco comunitario que debería armonizar la regulación para todo el continente?

La ley italiana aborda cuestiones de gran actualidad: los deepfakes, la transparencia en los algoritmos, la protección de los menores, la exigencia de etiquetado en contenidos generados por inteligencia artificial y la posibilidad de imponer sanciones severas a las empresas que incumplan.

En la práctica, supone una traslación anticipada del espíritu del AI Act, pero con un nivel de detalle y contundencia que recuerda a lo que España intenta con su propuesta de multas millonarias por no etiquetar contenidos generados artificialmente. La diferencia es que Italia no se ha limitado a un anuncio simbólico: ya ha convertido la propuesta en ley.

¿Tiene sentido que un Estado miembro se adelante con su propia normativa cuando ya existe un marco comunitario?

Lo que surge de inmediato es la comparación. Mientras Italia aprueba su propia ley, en España seguimos discutiendo la futura Ley de Inteligencia Artificial y el papel de la Agencia Española de Supervisión de la IA.

Sí, AESIA ya existe y ya tiene responsables nombrados, pero su función real está aún por definir, y su capacidad para vigilar y sancionar a empresas en un terreno tan complejo es una incógnita.

Mientras tanto, el gobierno anuncia subvenciones para fomentar el uso de la IA en las empresas, al mismo tiempo que amenaza con sanciones desproporcionadas que pueden disuadir precisamente a los actores que quiere impulsar. La incoherencia es evidente.

Italia, en cambio, ha optado por enviar una señal clara: la inteligencia artificial no es un territorio sin ley, y el Estado debe proteger a los ciudadanos frente a riesgos que van desde la manipulación de la opinión pública hasta la exposición de los más jóvenes a contenidos inadecuados.

La pregunta es si esa señal se traducirá en un marco estable que dé confianza a la sociedad, o en un corsé que limite las posibilidades de innovación y empuje a las startups a emigrar a otros países más permisivos.

La experiencia europea en materia de regulación tecnológica es, en este sentido, muy ilustrativa. Con el Reglamento General de Protección de Datos, la Unión Europea se convirtió en referente mundial en privacidad, pero no logró generar un ecosistema digital competitivo frente a Estados Unidos o China.

El debate, por tanto, no es Italia frente a España o frente a Bruselas, sino regulación frente a innovación.

El riesgo es que ocurra lo mismo con la inteligencia artificial: ser capaces de diseñar las normas más estrictas y completas, pero incapaces de desarrollar plataformas, empresas y tecnologías que compitan en igualdad de condiciones a nivel global.

El debate, por tanto, no es Italia frente a España o frente a Bruselas, sino regulación frente a innovación. Regular antes de tiempo puede dar la impresión de liderazgo y transmitir una pretendida seguridad a los ciudadanos, pero también puede paralizar el tejido empresarial si las obligaciones son excesivas o confusas.

Regular demasiado tarde puede permitir abusos y generar desconfianza social, pero da más margen a la innovación para crecer y adaptarse. Encontrar el punto de equilibrio es lo verdaderamente complicado.

Italia ha decidido arriesgarse y situarse en la primera opción. El sector empresarial italiano ya ha mostrado preocupación por el posible impacto en la competitividad, y no es difícil prever tensiones en los próximos meses entre quienes ven en la ley un escudo protector y quienes la consideran una barrera innecesaria.

Lo cierto es que, en ausencia de grandes campeones tecnológicos propios, Italia puede permitirse cierto protagonismo regulatorio sin miedo a perjudicar a gigantes nacionales… que, ¡oh sorpresa!… no existen. En España, donde tampoco abundan esas grandes tecnológicas, el debate es muy similar.

La AI Act europea debería servir de marco común para esto, pero la realidad es que los Estados miembros buscan protagonismo político en un tema que capta cada vez más atención mediática. De ahí que surjan leyes nacionales, agencias de supervisión o propuestas de sanciones ejemplares que, en muchas ocasiones, no hacen sino complicar un panorama ya de por sí confuso para las empresas.

Lo que está en juego es mucho más que la protección frente a los deepfakes o la transparencia en los algoritmos.

El riesgo de fragmentación es real: en lugar de una regulación armonizada que permita competir en igualdad de condiciones, acabamos con un mosaico de normativas que añade costes y dificulta la expansión de proyectos a escala europea.

Italia ha abierto la puerta a una discusión que va a ser central en los próximos años. ¿Deben los Estados miembros adelantarse y marcar su propio camino, o es más sensato esperar a que la normativa comunitaria entre plenamente en vigor y ver cómo se aplica en la práctica?

La respuesta dependerá de cómo evolucionen los primeros meses de aplicación de la ley italiana, y de si las sanciones y obligaciones resultan operativas o si, por el contrario, acaban generando un clima de desconfianza entre empresas e inversores.

Lo que está en juego es mucho más que la protección frente a los deepfakes o la transparencia en los algoritmos. Se trata de decidir si Europa será capaz de desempeñar un papel relevante en la carrera global de la inteligencia artificial, o si volverá a quedarse en el rol de árbitro que regula con detalle mientras otros juegan el partido y marcan los goles.

Italia, con su ley pionera, ha hecho su jugada. Ahora veremos si inspira a otros, o si se convierte en un ejemplo de lo que no se debe hacer.

***Enrique Dans es profesor de Innovación en IE University.