Montaje realizado con IA de la 'ministra albanesa' Diella con las banderas de España y Europa.

Montaje realizado con IA de la 'ministra albanesa' Diella con las banderas de España y Europa.

Europa

Diella, la primera ministra creada con IA: por qué la extraña propuesta de Albania no encaja en la política española

La Constitución, la responsabilidad política y la normativa europea impiden de forma tajante que una inteligencia artificial asuma funciones en el Gobierno.

Más información: Cómo la IA acelera el trabajo de 1,44 M de funcionarios y ahorra 7.000 millones de euros al año a la Administración

Cristian González
Publicada

Albania dio el pasado año un paso sin precedentes en la política a nivel global. O, al menos, así lo anunció. Su gobierno, liderado por el polémico primer ministro Edi Rama, ha presentado a una ministra virtual llamada Diella, una inteligencia artificial diseñada para combatir la corrupción y agilizar la administración pública.

Un avatar presentado como incorruptible, eficiente y transparente. En un país marcado por los escándalos de corrupción política. El propio Edi Rama defendió la iniciativa con rotundidad: "Las licitaciones públicas serán 100% libres de corrupción", aseguró al presentar a Diella.

La "solución definitiva", en sus palabras, frente a un problema estructural que ha erosionado la confianza ciudadana durante años.

Una decisión innovadora, pero también controvertida y criticada, que deja además una pregunta en el aire: ¿Podría ocurrir algo parecido en España?

Un país bajo sospecha

Este clima de sospecha permanente ha debilitado las instituciones y ha aumentado la presión social por una regeneración profunda del sistema político.

Diella, minsitra virtual de Albania, creada para combatir la corrupción en el país.

Diella, minsitra virtual de Albania, creada para combatir la corrupción en el país. @AlbanianDiplo (X)

La política albanesa arrastra una larga lista de escándalos. Por ejemplo, el mismo alcalde de Tirana se encuentra en detención preventiva por presuntas irregularidades en la adjudicación de contratos públicos y por blanqueo de capitales.

El líder de la oposición, Sali Berisha, también está siendo investigado por supuestos favores a personas de su entorno.

La presencia de la IA en España

Pero el debate en España no es tecnológico. Cada vez más organismos públicos utilizan la inteligencia artificial para agilizar trámites y minimizar la burocracia administrativa. Desde la gestión tributaria hasta la sanidad o la justicia, los algoritmos ya forman parte del día a día administrativo.

Se han invertido alrededor de 600 millones de euros en proyectos de inteligencia artificial ya ejecutados dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA), según los datos consolidados hasta abril de 2024.

Sin embargo, la cuestión de fondo es jurídica y política. Y ahí aparecen los límites. No se trata de si la tecnología funciona, sino de hasta dónde puede llegar dentro de un sistema democrático.

Lo que dice la Constitución

La Constitución española no menciona la inteligencia artificial. Tampoco regula de forma detallada la creación de ministerios. Lo que sí deja claro es la composición del Gobierno. Está formado por el presidente y los ministros, cargos que asumen responsabilidad política directa ante el Parlamento y la ciudadanía.

Los artículos 97 y 98 de la Constitución establecen que la estructura del Gobierno puede modificarse mediante real decreto. Se pueden crear o suprimir carteras. Cambiar competencias.

Pero hay un límite claro. El cargo de ministro exige un titular humano, responsable ante el Parlamento y la ley. Una inteligencia artificial no puede cumplir ninguna de esas funciones.

Por ese motivo, nombrar formalmente a una inteligencia artificial como ministro no es viable en España.

Control humano, herramienta complementaria

Borja Adsuara, experto en derecho digital y exdirector de Red.es, lo expresa sin rodeos: "La inteligencia artificial no puede ser ministra. Es solo una herramienta. La responsabilidad siempre debe ser de una persona. No es un ser autónomo que tenga responsabilidad".

Así pues, desde el punto de vista jurídico, una IA no puede asumir deberes, ni responder ante la justicia, ni rendir cuentas políticas. Tampoco puede ser cesada, sancionada o dimitir. Elementos todos ellos esenciales en un sistema democrático.

¿Adiós a la corrupción?

El debate, sin embargo, está sobre la mesa. Y no es menor: la inteligencia artificial no puede aceptar sobornos. No establece relaciones personales. No se deja presionar. No tiene intereses propios.

Pero también existen riesgos. Ramón López de Mántaras, profesor investigador emérito del CSIC y uno de los referentes en inteligencia artificial en España, considera una “barbaridad” hablar de ministros virtuales.

"No hay que poner el foco en qué puede hacer la inteligencia artificial, sino en quién la controla, para qué fines se despliega y con qué consecuencias", advierte.

El investigador alerta de una narrativa cada vez más extendida. La que presenta la inteligencia artificial como una herramienta casi mágica, capaz de resolver todo tipo de problemas estructurales que llevan décadas enquistados. Corrupción, ineficiencia, desigualdad, crisis institucional. Todo parece que pueda cambiar.

Pero esa visión, según López de Mántaras, es engañosa. La inteligencia artificial no es autónoma. No piensa. No decide por sí misma. Responde a quienes la diseñan, la entrenan y la supervisan. Detrás hay decisiones humanas. Y, con ellas, intereses, prioridades y sesgos.

Borja Adsuara coincide en este punto. La inteligencia artificial puede ser una gran aliada si se utiliza correctamente. Pero siempre como herramienta de apoyo, nunca como sustituta de la responsabilidad humana.

"La IA puede automatizar procedimientos, detectar irregularidades y mejorar la eficiencia. Siempre tiene que haber un funcionario o un cargo político que supervise y responda", expresa. Ese principio es innegociable en cualquier Estado de derecho.

La Ley de Inteligencia Artificial de la UE establece un enfoque basado en riesgos. No todas las aplicaciones de IA se tratan igual. Aquellas que afectan a derechos fundamentales o a servicios públicos esenciales se consideran de alto riesgo.

La normativa impone garantías estrictas. Evaluaciones previas, documentación técnica, trazabilidad, supervisión humana continua y mecanismos de reclamación para los ciudadanos afectados.

Albania no forma parte todavía de la Unión Europea, aunque aspira a hacerlo en los próximos años. Si finalmente se incorpora, iniciativas como la de Diella tendrían que adaptarse a la normativa europea. Y, de ser así, perderían cualquier pretensión de ejercicio real del poder político.

Una inteligencia artificial que asumiera funciones ministeriales entraría de lleno en esta categoría. O incluso podría considerarse incompatible con el marco legal europeo.

Quién responde cuando algo falla

La ley es clara. La responsabilidad siempre debe recaer en un ser humano. Un sistema de IA no puede asumir deberes, responder ante la justicia ni rendir cuentas políticas. Siempre debe existir una cadena clara de responsabilidad.

Esto tiene implicaciones prácticas. Si una inteligencia artificial comete un error que afecta a un ciudadano, alguien debe responder. El diseñador del sistema. El organismo que lo utiliza. El responsable político que lo supervisa. Alguien debe asumir responsabilidades.

Desde esta perspectiva, lo ocurrido en Albania se interpreta por muchos expertos más como un acto de propaganda que como una transformación real del poder ejecutivo a efectos jurídicos.

"Creo que es un deber utilizar la última tecnología para diseñar mejores políticas públicas y servicios más personalizados", afirma Adsuara. Pero insiste en que eso no equivale a delegar el poder político en una máquina.

Protección de datos y responsabilidad

Uno de los riesgos más sensibles en el uso de inteligencia artificial en la administración es la protección de datos. Las instituciones públicas manejan información personal masiva y especialmente sensible.

Un fallo de seguridad, una brecha o un uso indebido de estos sistemas puede tener consecuencias graves para los ciudadanos.

Aquí surge otra crítica relevante. En España, cuando la administración comete fallos en protección de datos o en el uso de sistemas automatizados, no se le imponen sanciones económicas.

A diferencia de las empresas privadas, las administraciones públicas solo reciben apercibimientos o recomendaciones.

Esta falta de consecuencias reales genera preocupación entre expertos en derecho digital. Sin un régimen sancionador efectivo, el uso de la IA puede expandirse sin los controles necesarios.

La inteligencia artificial seguirá avanzando. Se integrará cada vez más en la gestión pública. Automatizará procesos, mejorará la eficiencia y reducirá tiempos. Pero no gobernará. Al menos, no en los marcos democráticos actuales.

La pregunta, en realidad, no es si habrá ministros virtuales. Es cómo se usará la tecnología para reforzar, o debilitar, las instituciones democráticas. Los valores los ponen quienes la diseñan. Y quienes deciden cómo usarla. Ahí está el verdadero debate.