El pleno de la Eurocámara, durante la votación de este martes en Estrasburgo

El pleno de la Eurocámara, durante la votación de este martes en Estrasburgo Parlamento Europeo

Europa

La ley europea de IA vuelve a protagonizar el debate en el Parlamento y avanza en su camino legislativo

El pasado mes de diciembre se alcanzó un acuerdo sobre este reglamento, que espera convertise en una norma replicada a nivel global. 

12 marzo, 2024 01:24
Estrasburgo

El pasado 8 de diciembre, durante la presidencia española del Consejo de la Unión Europea, Europa celebró uno de los grandes hitos que marcarán el devenir de la historia de la región. Ese día, rozando la madrugada, se alcanzó un acuerdo entre el Consejo, el Parlamento y la Comisión sobre el borrador de la primera ley de inteligencia artificial de la región. 

Tras tres días de intensas negociaciones, donde se alcanzaron las 40 horas, a las que precedieron otros cuatro trílogos, este reglamento pionero, en el que los reguladores llevan trabajando casi cuatro años, dio un primer paso para convertirse en realidad. A través de esta norma, Europa busca garantizar que los sistemas de IA que operen o sean usados en este mercado lo hagan acorde a los derechos y valores del ecosistema comunitario, a la vez que se estimula y promueve la innovación.

Sin embargo, tras esta primera victoria de finales de 2023, lo cierto es que la ley aún tenía por delante una larga y ardua ruta legislativa para estar operativa, algo que se espera para finales de 2026 en su totalidad (aunque sí se contempla que algunos aspectos entren en funcionamiento antes).

Un paso más 

Uno de los primeros hitos en este camino se produjo el pasado mes de febrero, cuando el Comité de Representantes Permanentes (COREPER), compuesto por las personas designadas por cada uno de los estados miembros para personificar su posición ante la Unión Europea, volvió a reafirmar su apoyo a esta normativa. 

Esta "luz verde" fue decisiva, ya que, semanas antes, se propagaron diversos rumores que señalaban que algunos países podrían retirar su apoyo a esta ley debido a las dudas que tenían sobre su posible impacto en el tejido innovador y empresarial. Finalmente, no hubo oposición y este organismo dio el visto bueno al documento. 

[La ley de inteligencia artificial llega a Europa, pero aspira a tener una vocación global]

Tras ese apoyo, Consejo de la Unión Europea, que actualmente está presidido por Bélgica tras la finalización del turno español el pasado 31 de diciembre, envió una carta al Parlamento Europeo para que lo refrendase también.

Ahora, apenas un mes después, le toca el turno a la Eurocámara, que hoy se reúne en la sede de Estrasburgo para debatir sobre esta materia y mañana vota sobre la misma en su sesión plenaria. 

A pesar de que no se espera ninguna sorpresa en esta conversación, las expectativas son altas, ya que, de salir adelante, se alcanzaría un nuevo hito que acercaría, aún más, la aplicación efectiva de esta ley. 

Una ley basada en el riesgo

Aunque esta legislación ha sido hartamente celebrada, la verdad es que poco se conoce sobre las especificidades que contiene más allá de lo que han dejado entrever sus impulsores en diferentes entrevistas. Entre ellas, el enfoque que se adopta que, en este caso, está basado en el riesgo, dividiendo los diferentes usos en categorías que indican la peligrosidad que entrañan y elaborando una lista limitada de aplicaciones de la IA que se prohibirán de forma terminante debido al peligro "inadmisible" que plantean para los usuarios.

Esta perspectiva se desarrolla en los cerca de 90 artículos con los que cuenta el texto, de los cuales 21 han suscitado una mayor controversia, por ejemplo, los que tratan el reconocimiento facial y biométrico en tiempo real, ya que, por un lado, el Parlamento quería desestimarlo por completo y, por otro, el Consejo pedía introducir algunos casos de excepcionalidad vinculados a la seguridad nacional. 

Finalmente, primó la posición del Consejo, por lo que la ley contempla una serie de excepciones limitadas en los que estará permitido aplicarlos, siempre en base a una serie de salvaguardas (que se encuentre dentro de una lista estricta de delitos y siempre bajo autorización judicial previa).

[Artigas: "Hemos medido muy bien la prohibición de que la IA segmente por raza, creencia u orientación sexual"]

Además, para los sistemas clasificados de alto riesgo la norma incluye una evaluación obligatoria del impacto en los derechos fundamentales, entre otros requisitos. También, los sistemas de IA de propósito general (GPAI) y los modelos GPAI en los que se basan tendrán que adherirse a requisitos de transparencia, en los que se incluyen la elaboración de documentación técnica o el cumplimiento de la ley de derechos de autor, entre otros. 

Las autoridades europeas también han dado a conocer las sanciones que irán asociadas al incumplimiento, desde 7,5 millones de euros o el 1,5% del volumen del negocio hasta los 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y del tamaño de empresa. Todo ello será gestionado a través de la AI Office, la entidad creada específicamente para velar por el cumplimiento de la norma.