La presidenta de la Comisión Europea, Ursula von der Leyen, durante el Soteu.

La presidenta de la Comisión Europea, Ursula von der Leyen, durante el Soteu. El Español

Europa

Europa sienta las bases legislativas para el futuro Reglamento de IA en busca de un entorno "fiable y seguro"

La Comisión Europea lleva años elaborando diferentes normativas en materia de IA que ofrezcan seguridad jurídica y respeten los derechos.

21 noviembre, 2022 03:04

Fuentes de la Comisión Europea explican a D+I que la inteligencia artificial (IA) tiene asociados múltiples beneficios para la sociedad derivados de su uso que implican desde una mejora en la atención médica hasta una educación más personalizada. Sin embargo, a la par advierten que su rápido desarrollo también puede crear "situaciones indeseadas" sobre las que es necesario "actuar a una". 

Entre ellas, destacan, por ejemplo, la aparición de algoritmos que crean incertidumbre y obstaculizan la aplicación efectiva de la legislación en relación a la seguridad y los derechos fundamentales. 

En este contexto, los organismos europeos llevan años trabajando por definir una serie de normas que garanticen "el correcto funcionamiento del mercado interior de los sistemas de IA, con una ponderación adecuada de los beneficios y riesgos", con especial hincapié en la identificación biométrica o en las decisiones que afecten a los intereses personales y sean tomadas por esta herramienta (especialmente, en ámbitos como el sanitario, el legislativo o la educación). 

[De norte a sur, de Orense a Granada: las ciudades que suenan como posibles sedes de la agencia española de IA]

Hasta la fecha, todas las propuestas legislativas de la Comisión en esta materia se han caracterizado por poner el foco en la protección de los derechos fundamentales de los usuarios y en su seguridad para conseguir un "entorno competitivo y confiable", a la par que garantizaban el desarrollo de esta herramienta. 

No obstante, aunque el 'core' siempre se ha mantenido, lo cierto es que las normativas aplicadas han ido variando de forma constante con el objetivo de intentar situarse de forma paralela a la rápida evolución que ha sufrido la inteligencia artificial en los últimos años. 

En busca de una IA fiable 

Aunque es difícil situar un punto concreto en la historia en el que los organismos europeos se empezaron a preocupar por esta materia, sí se puede afirmar que uno de los hitos fundamentales en este campo fue la publicación de la Estrategia europea sobre la IA en 2018. 

A la vez, en este ejercicio se dio a conocer el primer plan coordinado como compromiso conjunto de los estados miembros para fomentar el desarrollo y la utilización de esta herramienta en Europa. En concreto, se centró en cuatro ámbitos clave: aumentar la inversión, lograr que haya más datos disponibles, fomentar el talento y garantizar la confianza.

["Europa debe hacer valer sus propias reglas": la soberanía digital será el próximo gran reto legislativo de la región]

Un año después, en 2019, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial formuló unas directrices sobre una IA fiable, así como una lista de evaluación para 2020.

Sin embargo, lo que nadie esperaba fue la intensa revolución tecnológica que sufrió el mundo como consecuencia de la crisis sanitaria. Este nuevo escenario, que afectó de lleno a la inteligencia artificial entre otras tendencias, obligó a los organismos europeos a repensar las normativas que habían desarrollado hasta la fecha para actualizarlas o elaborar nuevas con el objetivo de situarse a la par que su evolución.

La vicepresidenta de la Comisión y responsable de Competencia, Margrethe Vestager, es la promotora de la norma

La vicepresidenta de la Comisión y responsable de Competencia, Margrethe Vestager, es la promotora de la norma CE

Así, 2020 y 2021 se sitúan como dos de los años en los que se comunicaron, aplicaron o avanzaron un mayor número de reglamentos relacionados con este sector. 

Por ejemplo, durante el ejercicio de la pandemia se presentó el Libro Blanco de la Comisión sobre la IA, que contó con una amplia participación en su consulta pública y busca un enfoque coordinado sobre esta materia en torno a las implicaciones éticas y humanas que conlleva basado en la regulación y la inversión y, según apunta, a asegurar un ecosistema de excelencia y de confianza.

Este documento se anunció acompañado de un estudio titulado Informe sobre las implicaciones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica en el que se concluyó que la legislación vigente en ese momento tenía una serie de lagunas que deben subsanarse, sobre todo en la Directiva relativa a las máquinas.

"La confianza es una obligación, no un adorno"

En este contexto, la Comisión Europea (CE) presentó a mediados de 2021 el primer marco jurídico de la Unión Europea (UE) en materia de IA, así como una actualización del Plan Coordinado con los estados miembros de 2018. 

La primera de estas propuestas, que se aplica a los agentes públicos o privados de dentro o fuera de la UE cuyo uso afecte a las personas establecidas en ella, tiene como objetivo garantizar la protección de los derechos y la seguridad de los usuarios, "a fin de que haya confianza en el desarrollo y la adopción de la IA". 

Así, prohíbe los sistemas que se consideren una "clara amenaza" para la seguridad e impone "obligaciones estrictas" para aquellos considerados de alto riesgo como proveer de información clara al usuario o altos niveles de seguridad, entre otras.

Según explican fuentes de la CE a D+I, el objetivo de esta iniciativa es promover el desarrollo y la adopción de esta tecnología, "abordando, al mismo tiempo, los posibles riesgos que determinados sistemas pueden plantear para la seguridad y los derechos fundamentales". 

Por su parte, el nuevo Plan Coordinado viene a actualizar las bases de 2018 al cambio sufrido en los contextos tecnológico, económico y político. Según afirmó la Comisión Europea, esta revisión garantizará un vínculo más estrecho con el Pacto Verde Europeo, fomentará mercados y ofrecerá una respuesta más adecuada a la situación provocada por la pandemia. 

El comisario de Mercado Interior, Thierry Breton, espera que Twitter respete la Ley de Servicios Digitales

El comisario de Mercado Interior, Thierry Breton, espera que Twitter respete la Ley de Servicios Digitales CE

En este caso, las mismas fuentes señalan que este plan "presenta acciones clave para promover el liderazgo mundial de la UE en materia de inteligencia artificial segura, fiable y centrada en el ser humano".

Junto a ellas, aparece la reformulación del Reglamento sobre máquinas de la UE, que garantizará la integración segura del sistema de IA en la maquinaria en general. 

"(Sobre la inteligencia artificial) La confianza es una obligación, no un adorno", señalaba en ese momento Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea encargada de Digital y Competencia, mientras que el comisario de Mercado Interior, Thierry Breton, añadía que "es un medio, no un fin", destacando su potencial y sus riesgos. 

El futuro Reglamento europeo sobre la IA 

A toda esta vorágine, se suma el Reglamento sobre la IA, un marco legislativo en el que la Unión Europea está trabajando para unir todas las normas relativas a esta tecnología y con el que pretende controlar los posibles riesgos derivados e impulsar las oportunidades derivadas. De ser exitoso, este plan podría establecer un nuevo estándar global para su supervisión, tal y como pasó con el Reglamento General de Protección de Datos, que fue replicado fuera del territorio comunitario. 

Según explican fuentes de la Comisión a D+I, esta normativa garantizará que los europeos "puedan confiar en lo que la IA puede ofrecer". Así, apuntan que se caracterizará por unas "normas equilibradas, basadas en el riesgo y preparadas para el futuro" que abordarán los riesgos específicos que plantean estos sistemas. 

"Con este paquete, la UE se está dotando de herramientas esenciales para hacer de la IA una tecnología de elección para todos los europeos, capaz de impulsar el crecimiento y aportar nuevos servicios", precisan desde el organismo regulador. 

En esta línea, la Comisión recuerda que "ha facilitado e intensificado" durante años la unión en esta materia en toda la UE para impulsar su "competitividad y garantizar la confianza" sobre la base de sus valores. "Es fundamental una buena y continua coordinación con los Estados miembros", señalan. 

[Formar a un millón de profesionales en 'deep tech': la ambición de Europa para impulsar la innovación]

Así, el organismo apunta que las acciones propuesta se basan en la idea de que, para tener éxito, todos los actores (CE, estados y agentes privados) deben acelerar las inversiones en tecnologías de IA para impulsar una recuperación económica y social resiliente facilitada por la adopción de nuevas soluciones digitales. 

A la par, también deben actuar en materia de estrategias y programas relacionados con esta tecnología para que la UE aproveche la ventaja que conlleva ser pioneros, así como armonizar la estrategia en materia de IA para eliminar la fragmentación y hacer frente a los desafíos mundiales.

En concreto, esta normativa pretende garantizar que los sistemas de IA en la Unión Europa "sean confiables y respeten la legislación vigente", además de favorecer la seguridad jurídica para avanzar en la inversión en esta materia y mejorar la gobernanza y la aplicación efectiva de la ley en materia de derechos fundamentales. También, facilitar el desarrollo de un mercado único para hacer un uso legal y fiable de las aplicaciones que eviten la fragmentación del mercado. 

No obstante, el famoso Reglamento de IA, de momento, es solo un proyecto, ya que aún queda, al menos, otro año para que se conozca el texto final y más aún hasta que entre en vigor y las empresas se vean en la obligación de cumplirlo. Por ejemplo, el RGPD tardó casi cinco años en tramitarse y pasaron seis hasta su entrada en vigor. 

Ante este panorama, hay países que han decidido adelantarse y comenzar a trabajar en estrategias nacionales relacionadas con esta tecnología. Hasta 2021, la Comisión Europea destacaba que un total de 19 Estados miembros habían puesto en marcha esta serie de medidas, entre ellos Alemania, Bulgaria, Chequia, Chipre, Dinamarca, Eslovaquia, Estonia, Finlandia, Francia, Hungría, Letonia, Lituania, Luxemburgo, Malta, Países Bajos, Portugal, Suecia, Polonia y, más recientemente, España.