
La secretaria de Estado de Digitalización e IA, Carme Artigas, en el centro junto a Thierry Breton, comisario europeo, celebrando el acuerdo para la AI Act en Bruselas.
Los impulsores de la ley europea de IA, preocupados por los intentos de la UE de rebajar las obligaciones a las 'big tech'
Varios eurodiputados, junto a personalidades como Carme Artigas o Yoshua Bengio, advierten de que ceder a los intereses de las grandes tecnológicas sería "peligroso, antidemocrático y generará inseguridad jurídica".
Más información: La ley europea de IA aterriza de forma definitiva
En los últimos días las aguas bajan revueltas en el Parlamento Europeo y la causa no son las recientes borrascas que vivimos en España, sino los movimientos de Bruselas para rebajar las aspiraciones de la pionera ley europea de inteligencia artificial (AI Act). Todo a raíz del futuro código de buenas prácticas, en fase de redacción, y del que dependerá gran parte de la aplicación real de esta regulación.
Tanto es así que los grandes impulsores de esa norma -incluyendo varios eurodiputados, el premio Turing Yoshua Bengio o la española Carme Artigas, artífice de la ley- han enviado una carta a la comisaria digital, Henna Virkkunen, exponiendo sus preocupaciones.
En concreto, estos líderes piden a la Comisión Europea que no rebaje el alcance de la AI Act, especialmente en lo que concierne a que las obligaciones que se le imponen a las 'big tech' (como OpenAI, Microsoft o Google) dejen de ser vinculantes, al nivel de meras recomendaciones. Para los firmantes, este movimiento es "peligroso, antidemocrático y genera inseguridad jurídica" ya que permitiría que esas multinacionales no estén forzadas a cumplir todos los límites de la ley aprobada en 2023.
Van más allá: los eurodiputados críticos advierten de que relajar esta norma podría promover "posiciones políticas extremas, la desestabilización de la economía y la democracia europeas".
Como telón de fondo, la nueva Comisión Europea se ha mostrado mucho más abierta que su antecesora a la colaboración público-privada y a ceder a algunas de las pretensiones de las compañías tecnológicas. De hecho, aluden medios internacionales, el objetivo sería equilibrar la efectividad de este reglamento con la aceptación de las grandes multinacionales del sector, que se han mostrado claramente en contra de la AI Act.
De hecho, la batalla por el código de buenas prácticas en inteligencia artificial no es la primera señal de esta posible desregulación de esta tecnología. Hace poco, Bruselas ya anunció la retirada de una directiva complementaria que definía aspectos clave en la responsabilidad legal sobre IA.
Recordemos que las 'big tech', así como muchas compañías del Viejo Continente, llevan meses clamando contra los extremos de esta norma, que llegan a considerar incluso "inviable" desde el punto de vista técnico. Como ya informamos en septiembre de 2024, los altos directivos de empresas como SAP, Spotify, Ericsson, Meta, Klarna, Mirakl o Taxfix enviaron otra misiva a los organismos comunitarios quejándose de la AI Act y llegando a afirmar que "Europa se quedará rezagada por su incoherencia".
El arduo camino de la ley europea de IA
El arduo y lento camino que ha recorrido esta ley desde que se empezó a trabajar en ella es ya historia del ecosistema digital comunitario. De hecho, dado su carácter pionero, se espera que siente las bases de la futura regulación alrededor de dicha tecnología en todo el mundo.
Para llegar hasta este punto fueron necesarias más de medio centenar de reuniones técnicas, además de un último trílogo (conversaciones entre el Consejo, el Parlamento y la Comisión Europea) que será recordado por ser uno de los más largos hasta la fecha (alcanzando casi las 40 horas). Todo ello con el objetivo de lograr una posición común entre los legisladores en asuntos que suscitaron fricciones como la aproximación al reconocimiento facial y biométrico en tiempo real.
Aquí, España tuvo un papel fundamental, ya que fue el país que ostentó la presidencia rotatoria del Consejo de la Unión Europea durante los últimos seis meses en 2023 y que, en este período y bajo la batuta de la mentada Carme Artigas, impulsó la ley para que solventase sus últimos escollos.
Finalmente, la legislación apostó por un enfoque basado en el riesgo, dividiendo los diferentes usos de esta tecnología en categorías que indican la peligrosidad que entrañan y estableciendo requisitos y obligaciones a los participantes en la cadena de valor.
Así, a partir de la definición de sistema de IA establecida por la OCDE e integrada en el reglamento, la ley prohíbe aquellas prácticas consideradas de "riesgo inaceptable", entre ellas, el empleo de técnicas manipuladoras para alterar el comportamiento de una persona, la explotación de vulnerabilidades, la evaluación de personas o colectivos atendiendo a sus características (social scoring), o los sistemas dedicados a inferir emociones en el trabajo o en los centros educativos.
Además, se considera de "alto riesgo" los sistemas que afectan a infraestructuras críticas, los dedicados a la educación y formación profesional (como los que determinan la admisión o la evaluación de los resultados educativos), los que afectan a la justicia y los procesos democráticos (sistemas de asistencia a las autoridades judiciales o aquellos que influyan en el comportamiento electoral) o los que tengan que ver con el control fronterizo.
Por otro lado, la ley regula también los modelos de IA de uso general sobre los que establece una serie de obligaciones dedicadas a los proveedores como documentar el proceso de entrenamiento y resultados, informar sobre sus características y requisitos legales a los proveedores de sistemas de IA que vayan a integrarlo, establecer directrices para asegurar el respecto a la normativa de propiedad intelectual o publicar un resumen detallado del contenido usado para el entrenamiento.