Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

Europa ENTREVISTA

Artigas: "Hemos medido muy bien la prohibición de que la IA segmente por raza, creencia u orientación sexual"

  • La secretaria de Estado de Digitalización e IA es una de las artífices de que Europa sea el primer continente con una regulación holística para limitar la inteligencia artificial.
  • En entrevista con D+I- EL ESPAÑOL, rememora la intensa negociación final de 38 horas, aclara los cambios producidos en la norma y responde a las primeras valoraciones.
12 diciembre, 2023 01:50
Madrid

La perseverancia es el rasgo, más excepcional de lo que parece, de aquellas personas que se mantienen firmes en algo a pesar de la fatiga o la frustración. Si 38 horas de negociación en tres maratonianas jornadas en Bruselas para dar vida a la primera regulación del mundo en inteligencia artificial no es un buen ejemplo de ello, podemos apagar las luces al salir. La artífice de esta gesta es Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial del gobierno español y, amén de la presidencia rotatoria del Consejo de la Unión Europea, la cabeza visible que llevaba el mandato de culminar esta obra pionera en el ecosistema digital.

Artigas presidió el quinto y último trílogo (encuentro entre el Consejo, el Parlamento y la Comisión) para definir el contenido de esta norma, que responde a los crecientes temores sobre el potencial y los riesgos de la inteligencia artificial. Aunque su germen se encuentra en 2020, el auge de los modelos de IA generativa -como ChatGPT- en el último curso ha elevado a categoría de máxima importancia la elaboración de una regulación que se anticipe a sus usos perniciosos y permita, al mismo tiempo, el aprovechamiento de sus capacidades en el tejido productivo.

Esta reunión, "de la que se podría escribir un auténtico thriller político", como admite entre sonrisas la propia política, ha mantenido en vilo al ecosistema digital durante buena parte de la pasada semana. A su vuelta a Madrid, en el encuentro que mantiene con D+I - EL ESPAÑOL, apenas muestra síntoma alguno de la fatiga y la presión que se vivió hace escasas jornadas. Se muestra, empero, eufórica ante el logro cosechado, "la guinda del pastel" de la acelerada carrera regulatoria que la UE ha llevado a cabo bajo la presidencia española de este semestre.

Pregunta: Europa se ha convertido en el primer continente en contar con una ley que regule la inteligencia artificial, ¿cómo hemos llegado hasta aquí y qué supone este hito?

Carme Artigas: Es la primera ley de ámbito internacional que regula la IA y es una norma que se lleva trabajando desde el año 2020, con el primer borrador de la Comisión que vio la luz en 2021 y, desde entonces, el Consejo y el Parlamento definieron sus posturas. Por el medio surge ChatGPT y descoloca bastante el enfoque inicial de la ley que es lo que nos ha llevado a este quinto trílogo con 21 puntos por debatir de una norma muy compleja con casi 90 artículos. Los que quedaban por consensuar eran los mayores, pero el resto ya estaban muy bien resueltos a nivel técnico de los cuatro trílogos anteriores.

[La Declaración de Bletchley: el primer paso de consenso global para regular los riesgos de la inteligencia artificial]

Lo que vemos ahora es el fruto de muchos años de trabajo, también durante estos seis meses de presidencia española de la UE. Hemos dedicado mucho tiempo, más allá de este trílogo, y eventos paralelos para llegar a buen término. Era un gran reto porque no podíamos mirar a ninguna otra ley de otro país que lo hubiera hecho antes. La lástima hubiera sido si, después de haber hecho todo ese trabajo previo, nos quedábamos sin la última guinda del pastel, hubiera sido un sabor amargo. Pero hemos tenido la gran fortuna de que todos hemos estado muy comprometidos para poderla cerrar y hacerlo muy bien. Es una gran satisfacción.

P: Una ley que mantiene los mismos principios de los borradores que ya conocíamos, pero que incorpora como gran medida estrella un apartado específico para los modelos fundacionales -como GPT-4 de OpenAI-, o como se denomina en la ley, la inteligencia artificial de propósito general...

C.A.: Queríamos una ley que pusiera límites al desarrollo tecnológico sin cortapisas, regulando la tecnología para proteger los derechos fundamentales de los ciudadanos. Desde el principio se ha mantenido que debía ser una ley basada en el producto y basada en los riesgos, y ahí nos hemos mantenido coherentes para evitar regular demasiado ex-ante que podría matar la innovación, pero tampoco dejarlo todo a la ex-post que posibilitaría efectos negativos que no podrían revertirse. 

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

En el caso de la IA de propósito general, el Parlamento tenía una postura muy conservadora de considerar estos sistemas como de alto riesgo. Pero no todos los modelos fundacionales tienen por qué ser de alto riesgo, dependerá de cuál sea su aplicación final y si una de estas tecnologías puede acabar alimentando una aplicación de ese tipo. Si regulamos por exceso estos modelos fundacionales, podemos perder la neutralidad tecnológica. Sin embargo, somos conscientes de que estas herramientas tienen el riesgo de infringir los derechos fundamentales, como en deep fakes, sesgos o manipulación pública.

"Si regulamos por exceso los modelos fundacionales, podemos perder la neutralidad tecnológica"

Carme Artigas, secretaria de Estado de Digitalización e IA

El gran debate era cómo regular esto sin que se pierda el espíritu de la ley, y así llegamos al quinto trílogo. Lo que finalmente decidimos es que debíamos pedirles una serie de requisitos de transparencia, evitar potenciales cajas negras, sin considerar de entrada que son de riesgos. Y hacer que la responsabilidad de cada una de las partes del sistema quede bien delimitada, de modo que el usuario final, como pueda ser una pyme, no se haga responsable de las herencias de la tecnología que está usando en sus modelos. 

Es como si un restaurante sirve una comida caducada. Él es el responsable, pero previamente tiene que pedir un informe de sanidad al proveedor de la comida. Si no lo hago, asumo el riesgo de toda la cadena de valor. En ese sentido, nosotros limitamos las responsabilidades desde el primer modelo fundacional, pasando por el que lo tunea con datos propios y también quien lo lleva al mercado.

P: Hay voces que han considerado que estos requisitos de transparencia son poco restrictivos respecto al riesgo de estos modelos fundacionales. ¿Por qué se ha apostado por esta aproximación?

C.A.: Definir si a todo el mundo le pedimos o no lo mismo generó cierto conflicto y hubo referencias a hacer distinciones según la facturación de las empresas, como sucede con la Digital Services Act (DSA). Pero a mí lo que me importa no es si la compañía es grande o pequeña, sino cuál es el impacto de su tecnología y, en concreto, cuáles son los riesgos sistémicos que pueden tener. 

"Todo lo que tenga un riesgo sistémico se controlará a nivel europeo y los riesgos a nivel vertical, a escala nacional"

Carme Artigas, secretaria de Estado de Digitalización e IA

Los modelos de propósito general pueden terminar alimentando aplicaciones de todo tipo. Cuando son de alto riesgo, no me preocupa porque aplican las restricciones y salvaguardas que ya teníamos dispuestas. Pero ¿qué ocurre cuando uno de estos modelos no entra en esa definición y, sin saberlo, propaga riesgos sistémicos? Por ejemplo, que un recomendador de películas sistemáticamente nunca proponga películas turcas. Eso es lo que queremos evitar y para ello no nos sirven criterios como el de la cantidad de procesamiento de datos, porque hay modelos más pequeños con mucha capacidad de propagar riesgos sistémicos.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con Alberto Iglesias, director de DI - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con Alberto Iglesias, director de DI - EL ESPAÑOL. Rodrigo Mínguez

Por tanto, volvemos al espíritu de la ley y lo que hemos decidido es que la transparencia de estos modelos fundacionales se controle a escala europea con una oficina específica, no a través de las agencias nacionales que gestionarán los riesgos altos en cada uno de los verticales. Algo parecido a lo que viene sucediendo con la banca: todo lo que tiene riesgo sistémico se controla en Europa y lo vertical a escala nacional. 

P: ¿Cuánto tiempo, de las 38 horas, se dedicaron a resolver este dilema respecto a los modelos fundacionales? ¿Está satisfecha con el resultado en este aspecto?

C.A.: Era un tema muy importante y para llegar a esta conclusión estuvimos siete horas hasta conseguir ponernos de acuerdo en cómo llegar a este punto, sin poner excesivas cargas. Finalmente, apenas se les pide unos requisitos de transparencia, y la difusión de resúmenes detallados sobre el contenido utilizado para su entrenamiento que ya tienen y que tan sólo deben tener disponible por si se les pide. A las grandes compañías les pedimos algo más, como estrategias de mitigación y de técnicas adversariales para ver cómo reducir esos riesgos.

El Parlamento nos pidió rebajar el umbral e incluso hemos bajado el nivel a partir del cual exigimos estas salvaguardas respecto a la propuesta de Estados Unidos. De todos modos, no me preocupa demasiado porque -llegado el momento- podemos cambiar estos parámetros por otros que tengan más sentido.

P: ¿Qué sucede respecto a los modelos que están en fase de desarrollo y los de código abierto? ¿A qué restricciones estarán sujetos?

C.A.: Todos los modelos que estén en fase de entrenamiento, ya sea por parte de investigadores o de una empresa, están liberados, excepto los que superen el nivel de riesgo aceptable. lo mismo sucede con los modelos de código abierto, siempre y cuando sean realmente transparentes acerca de cómo han construido su tecnología, que no siempre es algo que los grandes fabricantes estén revelando actualmente. Respetando, además, los derechos de autor en todos los datos y elementos que se utilicen y que estén protegidos, desde el propio entrenamiento de los modelos.

Hemos ganado mucho en esto para la innovación. La excepción para el código abierto y en la fase de diseño estaba fuera del reglamento inicial. Pero, además, permitimos probar los sistemas de IA en el entorno real hasta doce meses, algo que antes tampoco estaba garantizado.

Las excepciones de seguridad nacional

Del borrador que conocíamos de la ley, la ya famosa AI Act, uno de sus bloques más celebrados era la prohibición absoluta de algunas aplicaciones de la inteligencia artificial que eran consideradas una amenaza directa a los derechos de los ciudadanos... y de las propias democracias. Es el caso de los sistemas de categorización biométrica, el reconocimiento de emociones, la puntuación social o el reconocimiento facial en tiempo real. 

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

Si bien todos esos puntos se mantienen tras el maratoniano trílogo, lo cierto es que la nueva propuesta incluye algunas excepciones ligadas a la aplicación de la ley o la seguridad nacional. En el caso de la identificación 'post-remota', sólo podrá usarse en la búsqueda de personas condenadas o sospechosas de haber cometido un delito grave. Y, en el caso de que se use la tecnología en tiempo real, sólo podrá hacerse durante un período limitado para una serie de situaciones como secuestros, terrorismo, asesinatos, violaciones o robos a mano armada. También de crímenes ambientales o el tráfico de personas.

Establecer estas excepciones llevó doce horas de negociación, como admite la propia Carme Artigas. No era fácil alcanzar un consenso en torno a este aspecto, que para algunos críticos supone crear agujeros para que los gobiernos puedan utilizar la inteligencia artificial de manera arbitraria. La secretaria de Estado tiene claro que no es el caso, "porque por carácter general, la identificación biométrica está prohibida y la policía no podrá estar viendo a nadie en tiempo real y saber quién es o qué hace. Eso ya pasa en otros países; no lo queremos aquí".

"La policía no podrá estar viendo a nadie en tiempo real, solo en delitos muy tipificados y con autorización judicial"

Carme Artigas, secretaria de Estado de Digitalización e IA

Ahora bien, continúa Artigas, "no queremos limitarnos la posibilidad de encontrar a un niño o a un abuelo con Alzheimer que se han perdido. Parece de sentido común que podamos permitir esos usos. Aquí el debate estaba en qué es lo justificado y qué tipo de delitos. Comenzamos con una lista de 33 delitos que se han quedado en casi la mitad, en línea con la regulación europea de seguridad".

Para evitar cualquier suspicacia, Carme Artigas aclara que la policía intervendrá siempre "con autorización judicial y sólo en crímenes muy tipificados", además de que los sistemas de IA implicados estarán englobados en la categoría de alto riesgo, "con las salvaguardas de derechos fundamentales y las auditorías necesarias" para subsanar cualquier vulneración potencial. También alude a que "hemos medido muy bien la prohibición de cualquier cosa que se use para segmentar a una persona por raza, sexo, orientación sexual o creencias".

Una gobernanza europea para la IA

La secretaria de Estado de Digitalización e Inteligencia Artificial hace especial hincapié en la importancia de establecer una gobernanza adecuada al reto mayúsculo que supone regular una tecnología tan pujante como la IA. En ese sentido, la labor de las agencias nacionales de supervisión (como la instaurada en A Coruña, en el caso español) se verá complementada con la ya mentada oficina europea, destinada a la coordinación entre los distintos países y a la gestión de los riesgos sistémicos de los modelos fundacionales.

La nueva AI Office europea tendrá un comité de representantes nacionales, otro científico y un tercero de la sociedad civil

"Estamos creando una oficina, no una agencia, que evitará el solape de competencias con los organismos nacionales. La función de esta AI Office será la de coordinar los parámetros que definen los niveles de clasificación, también de las alertas que se produzcan en un país y que puedan servir al resto para anticiparnos", detalla Carme Artigas durante la entrevista con este medio. "Además, la oficina tendrá un plantel de expertos que podrá prestar a los distintos países en función de sus necesidades, porque sabemos que hay escasez de perfiles en este campo y que a los organismos públicos nos cuesta atraerlos".

La nueva oficina tendrá tres organismos de trabajo: un comité formado por los representantes de todas las agencias nacionales, otro científico y un tercero destinado a la participación de la sociedad civil. "Su trabajo será muy dinámico y orientado a mejorar la eficiencia, gestionar los riesgos sistémicos y ayudar a los países europeos en la implementación de esta ley", añade.

Una ley pensada para evolucionar con el tiempo

Como reconocía Carme Artigas al principio de esta conversación, los avances en inteligencia artificial que estamos viviendo son objeto de continuas revisiones y cambios de paradigma en el entendimiento de esta revolución tecnológica. Sin embargo, la AI Act está pensada para perdurar en el tiempo y adaptarse a cualquier cambio que se produzca en torno a esta innovación.

"Todos los parámetros que incluimos son modificables, porque a medida que avance la tecnología y la evidencia científica podremos determinar los umbrales de riesgo, en conformidad con el consenso científico de la AI Office", explica. "Evidentemente, el gran reto de esta ley es que supere la prueba del tiempo y por eso, ya en el tercer trílogo, hicimos algo que fue determinante para la idea de esta ley, en la propia definición de lo que era un sistema de IA de alto riesgo. Allí estaban las características y estaban los dominios de aplicación de esa definición. Separamos la definición de las aplicaciones, de modo que el articulado de la ley no haya que cambiarlo, pero sí podamos actualizar los riesgos y las amenazas".

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

En detalle: "Lo que hoy está prohibido, mañana seguirá estando prohibido, porque eso tiene que ver con nuestra visión del mundo. Pero lo que hoy no supone un gran riesgo, mañana puede convertirse en uno. Y por eso el anexo donde se incluyen estos aspectos está sujeto a poderse actualizar a medida que avance la tecnología o aparezcan nuevas amenazas. Contamos con distintos mecanismos de actualización que no requieren volver a pasar por la aprobación de la ley, con lo que ello implica".

A sumar la colaboración con la propia industria en la definición de las modificaciones que se vayan realizando. "Se trata de algo muy dinámico, por lo que apostamos por la vía de la corregulación. No estamos ante una ley grabada a fuego, pero tampoco ante un simple código de conducta voluntario. Estamos ante un mecanismo en el que vamos a pactar el cumplimiento de la regulación, y en el que la industria va a participar también del acuerdo".

Ante las críticas... sin ver el documento final

A las pocas horas de que se produjera la fumata blanca en este trílogo de 38 horas, numerosas voces comenzaron a elevar sus impresiones sobre los cambios introducidos en la ley europea de inteligencia artificial. Unos, desde la industria, criticando los nuevos requisitos regulatorios y limitaciones adicionales. Otros, desde el tercer sector, defendiendo precisamente lo opuesto: que la revisada norma introducía agujeros para el uso indeseado de la IA.

Carme Artigas responde con absoluta claridad a estas voces: "La gente no ha visto el documento final. Ha habido 20 borradores distintos desde el principio del trílogo hasta el final, así que aquellos que tuvieron acceso a alguno de ellos no tiene la visión completa del documento en firme".

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

De hecho, se muestra especialmente dolida ante algunos comentarios que se han repetido en los mentideros de la industria en los últimos meses: "Se empezó a crear una narrativa de que esto se podría cerrar en falso, pero teníamos muy claro que no iba a ser así. Por eso queríamos cerrar un acuerdo político en todos los artículos, no queríamos salir de ahí sin el texto legal acordado entre las partes en toda la ley. Y la gente se confunde, pensando que hemos sido un árbitro en esta negociación. Nada más lejos de la realidad: hemos sido colegisladores, la ley la hemos redactado el Consejo y el Parlamento a partir del primer borrador de la Comisión. A veces parece que nosotros pasábamos por allí y que esto hubiera ocurrido igual si España no se lo hubiera creído".

El documento completo, adelanta la secretaria de Estado, lo conoceremos a finales de enero. Queda pasar por el filtro legalista para poder ver la luz, antes de que el Consejo y el Parlamento refrenden el texto que han acordado sus equipos de negociación. "No hay nada que pueda hacernos pensar que ningún país miembro no vaya a firmar el texto, porque hemos respetado el mandato que nos han dado. Con el Parlamento es más complejo, porque hay muchas más sensibilidades".

En cualquier caso, Carme Artigas confía en que la norma conseguirá todas las aprobaciones a tiempo de que se disuelva el Parlamento Europeo para las elecciones comunitarias del próximo año. Eso implica que, muy probablemente en marzo o abril, la AI Act entre ya en vigor, con dos años de moratoria para su aplicación salvo en el caso de los usos prohibidos, cuyo plazo se reduce a seis meses.

¿Un ejemplo para el resto del mundo?

La ley europea de inteligencia artificial es pionera a escala global, pero nuestra región no está sola en esto de buscar marcos regulatorios para esta tecnología de vanguardia. En ese sentido, Carme Artigas está convencida de que la AI Act servirá de ejemplo para otros países a la hora de sentar su legislación y, lo más importante, de punto de unión para establecer normas a escala global.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, durante su entrevista con D+I - EL ESPAÑOL. Rodrigo Mínguez

Por ejemplo, señala la política que la reciente Declaración de Bletchley se centra en temas como la seguridad de producto y los "casos de frontera" y, aunque reconoce la contribución de instituciones en Reino Unido y Estados Unidos en la creación de estándares de seguridad, valora especialmente la visión holística de Europa.

Para Artigas, la AI Act va más allá de establecer estándares legales, para cuestionar cómo y para qué se debe usar la inteligencia artificial. Según Artigas, "la gran aportación es saber que no queremos que la IA se use para ciertas cosas, aunque sea técnicamente posible. Creo que la estructura de la ley es muy innovadora y va a marcar una manera de legislar".

Artigas también adelanta, en lo que atañe a la gobernanza global, que un borrador inicial por parte de la ONU -donde ella es co-chair de su comité en IA- se espera para finales de diciembre. Inspirado, por supuesto, en el trabajo europeo. Y, por si fuera poco, la secretaria de Estado señala hacia los países de Latinoamérica como potenciales seguidores del camino europeo a tenor de los acuerdos suscritos entre ambos continentes, por los que nuestros vecinos del otro lado del océano se han comprometido a adaptar la regulación europea en su legislación. "Es muy probable que sean los primeros beneficiarios del 'efecto Bruselas'", concluye.