Ley europa de inteligencia artificial.

Ley europa de inteligencia artificial.

España LEY DE IA

Una ley que cubre un vacío legislativo, pero que es "mejorable": así valora el sector la nueva norma

Asociaciones y patronales comparten con D+I - EL ESPAÑOL sus valoraciones sobre la pionera ley europea de inteligencia artificial.

18 diciembre, 2023 02:49
Noelia Hernández Sandra Viñas Alberto Iglesias Fraga

En la madrugada del pasado 8 de diciembre, la Unión Europea daba su visto bueno a la AI Act, la primera norma en el mundo que regula el uso y aplicación de la inteligencia artificial. Un documento en el que se venía trabajando desde 2020 y cuya aprobación se llevó a cabo tras 38 horas de intensa negociación

En este tiempo, se ha trabajado en un texto que velaba por la seguridad y los derechos del ciudadano, y perseguía la transparencia en la utilización de aquellas tecnologías relacionadas con la inteligencia artificial. Algo que se ha mantenido en los detalles hechos públicos por las autoridades europeas, aunque aún no se ha dado a conocer el borrador final (algo que se prevé para principios del próximo año).

“Se trata de una norma clave, que va a definir la próxima etapa de la economía digital en la UE, dado el impacto tan transversal que tiene la inteligencia artificial. Y es que la IA no es sólo una tecnología, sino una herramienta transformadora del tejido económico y social”, apunta el director general de Adigital, César Tello, en declaraciones a D+I - EL ESPAÑOL. En este sentido, valora “positivamente” poder contar un marco regulatorio estable “que aporte certidumbre y siente las reglas del juego para los próximos años”.

[Análisis de la ley europea de inteligencia artificial: pionera en el mundo, pero con rebajas en las prohibiciones]

“Es importante que esta ley quiera asegurar que la inteligencia artificial, desarrollada y aplicada en Europa, esté plenamente en consonancia con los derechos y valores de la UE. así como asociar su aplicación al bienestar social y medioambiental”, añade el presidente de IndesIA, Valero Marín. También hace hincapié en la necesidad de que sea “clara” en cuanto a las normas y los estándares éticos: “Esto fomentará la confianza en su uso, lo que se traduce en una mayor facilidad para que las empresas la implementen en sus procesos”.

En la misma línea, Richard Benjamins, cofundador y vicepresidente de OdiseIA, explica a este medio que la normativa es especialmente positiva porque “no regula la tecnología, sino el uso de ella”, lo que significa que se reconoce que un mismo algoritmo puede usarse para distintos problemas. Además, destaca el enfoque basado en riesgos de la ley, que distingue entre sistemas de alto y de bajo riesgo y dispone diferentes exigencias para cada uno de ellos. 

“Se trata de una norma clave, que va a definir la próxima etapa de la economía digital en la Unión Europa".

César Tello, director general de Adigital

Por su parte, Juan Ignacio Rouyet, presidente del think tank We The Humans, defiende que se trata de “una ley necesaria que demanda la sociedad”, aunque critica que “debería haber sido más temprana, pues ya hemos tenido impactos negativos en la sociedad por la inteligencia artificial”. En su opinión, “es acertado distinguir distintos usos de la inteligencia artificial: uso prohibido, de alto riesgo y de riesgo limitado; cada uno de ellos con diferentes niveles de control. Esto da una idea adecuada la inteligencia artificial respecto a sus riesgos, evitando caer una visión apocalíptica, donde toda IA es peligrosa, o en una visión inocente, donde la IA no tiene ningún riesgo”.

Desde la patronal del sector de las telecomunicaciones, DigitalES, explican a D+I - EL ESPAÑOL que este nuevo marco jurídico y un sistema de gobernanza claros “favorecerán el desarrollo y la adopción de la tecnología. Es crucial que el marco horizontal que surja regule la IA en función del uso y la finalidad y de forma tecnológicamente neutral. Los retos fundamentales de la IA son transversales a sectores distintos y la creación de un marco horizontal que pueda aplicarse de manera uniforme garantizará una mayor seguridad jurídica”.

La patronal tecnológica Ametic también celebra, a través de una declaración emitida por su Comisión de IA y Big Data, la “oportunidad” que supone esta normativa para posicionar a Europa en “un lugar destacado en el desarrollo y utilización de esta tecnología a nivel mundial”. 

Aun así, la entidad muestra su preocupación “por los exigentes requisitos que incorpora la regulación” para los desarrolladores y usuarios y muestra su preocupación porque los recursos necesarios puedan suponer “una barrera inalcanzable” para ciertos colectivos, entre los que mencionan a las pymes. 

Mejoras pendientes

Sobre los aspectos que se pueden mejorar de esta legislación pionera en el mundo, desde IndesIA piden que más que la tecnología, debería regular las malas prácticas que se pueden hacer de ella –“La tecnología es neutra”, recalca Marín– y, sobre todo, que sea “flexible” para que se adapte a la evolución que sin duda experimentará la inteligencia artificial. Una flexibilidad que ayudará a fomentar la colaboración entre el sector público y el privado, e “impulsar la innovación de manera adecuada”, además “de establecer medidas que apoyen la investigación propia”.

Por su parte, Benjamins precisa que los reguladores deberían definir mejor las obligaciones de los sistemas de alto riesgo, ya que, explica, aunque la ley identifica los proveedores y deployer, la realidad “es mucho más compleja” y existen algoritmos de código abierto y organizaciones que pueden tener al mismo tiempo varios roles según la perspectiva en la cadena de valor. 

"La flexibilidad de la norma ayudaría a fomentar la colaboración entre el sector público y el privado, e impulsar la innovación de manera adecuada"

Valero Marín, presidente de IndesIA

El cofundador de OdiseIA añade que también es mejorable la forma de incluir los modelos fundacionales, los sistemas de IA de propósito general y la IA generativa en la norma. “Es verdad que no es fácil integrarlas en un documento que ya estaba medio terminado, pero hay muchos cambios a última hora que generan la impresión de que necesitan más tiempo antes de cerrar una regulación con mucho impacto”, afirma. Y añade que esta situación también se ha dado con los cambios en las definiciones de lo que es o no “alto riesgo”. 

Algo en lo que también coincide el director de IA de Adigital, Justo Hidalgo, quien, aunque valora positivamente el texto publicado, manifiesta su preocupación por que haya sistemas/modelos que hayan quedado fuera del mismo. “Especialmente, teniendo en cuenta la importancia de que la norma sea flexible y largoplacista, y cuente con mecanismos que permitan su adaptación a medida que evoluciona la tecnología (esto es, future proof)”.

Rouyet va más allá y alude, en esta línea de críticas, que la principal debilidad de esta AI Act, como de cualquier norma, es que “deja espacios abiertos a la interpretación. Por ejemplo, se habla de un ‘uso indebido, razonablemente previsible’. Esto deja en manos de una organización decir que cierto uso indebido no se podía prever. Con ello, posiblemente no le afectaría ninguna sanción, pero el daño al usuario o la sociedad estaría hecho”.

"Hay muchos cambios a última hora que generan la impresión de que necesitan más tiempo antes de cerrar una regulación con mucho impacto”

Richard Benjamins, cofundador y vicepresidente de OdiseIA


En su opinión, “la solución es aplicar mecanismos ex ante como la auditoría, para evitar que el daño se produzca. La propia norma así lo recoge, para el caso de sistemas de alto riesgo, pero lo plantea de forma condicional, diciendo que las organizaciones ‘podrían’ adoptar. Entendemos que las acciones ex ante, como la certificación previa, debería ser una medida obligatoria”.

Desde DigitalES añaden al debate algunos puntos de mejora adicionales de esta ley europea de inteligencia artificial. Hablan, por ejemplo, de la necesidad de que se aclaren las definiciones y la amplitud del alcance de la intervención, o de garantizar que todos los actores puedan cumplir con sus obligaciones para que los sistemas de IA desarrollados y comercializados en la UE se creen de una manera ética, responsable y transparente. También están alerta ante “la tendencia de los colegisladores a intentar articular roles más precisos sin tener una definición legal estricta” de la IA.

Es necesario de que se aclaren las definiciones y la amplitud del alcance de la intervención

DigitalES

Por su parte, desde Ametic señalan que es “de especial importancia” incorporar entornos de prueba, como el sandbox de IA en el que está trabajando España, que faciliten la adaptación de las soluciones relativas a esta tecnología a las exigencias del Reglamento, evitando que ningún colectivo se quede atrás. 

Así, la patronal tecnológica cree que es clave que la fase de implementación de la ley venga acompañada de una estrategia de comunicación que asegure que la norma sea difundida y entendida por el mercado, especialmente por las pymes, para favorecer su adaptación sin “menoscabo de su actividad y posicionamiento”. 

Impactos en la industria

Lo que se aprobó el pasado 8 de diciembre es un borrador, cuyo texto definitivo se conocerá  a principios de 2024 y cuya obligatoriedad en su cumplimiento no se producirá hasta dentro de dos años (aunque algunos puntos tendrán efectividad antes). Un margen de tiempo que la industria debería aprovechar para prepararse de cara a lo que vendrá. “Y hacerlo creando un marco de gobernanza que contemple, sin duda, la parte legislativa, pero también la de autorregulación interna, que defina qué líneas de comportamiento marcar en cuanto a los procesos y uso de sistemas con IA”, recomienda Marín.

“Es importante que la ley europea, por ser pionera, no se vea lastrada frente a otros países, de ahí que sea fundamental avanzar en un marco común sin que nadie se quede atrás y en el que se garanticen los mismos derechos y obligaciones a todos los ciudadanos con independencia de su origen”, aporta el presidente de IndesIA. 

"Gran parte de los riesgos que hemos vivido hasta ahora con la IA han sido por una innovación descontrolada"

Juan Ignacio Rouyet, presidente del think tank We The Humans

El desarrollo y uso de la IA es transversal para múltiples sectores empresariales, aportando eficiencia, innovación y productividad. Sin embargo, Hidalgo recuerda que en la actualidad, sólo el 8 % de las empresas de la UE utilizan la IA, muy lejos del objetivo del 75 % para 2030. “Por ello es crucial evaluar el impacto de la regulación y sus costes a startups y pymes digitales europeas, así como proporcionar facilidades para que estas organizaciones no pierdan incentivos para el desarrollo y uso de la IA. También es esencial ver a la industria como un aliado estratégico a la hora desarrollar la regulación, en un ejercicio de colaboración público-privada”.

Benjamins, por su parte, cree que las empresas están “capacitadas para asimilar la norma”, aunque admite que “les puede costar un poco”. “Ya han asimilado la GDPR, y la nueva regulación puede aprovechar mucho los procesos ya montados”, explica.  Según precisa el confundador de OdiseIA, el esfuerzo será mayor por parte de las compañías más pequeñas, debido a que tienen una manera de trabajar distinta. “Por eso, el piloto regulatorio (sandbox) que quiere liderar España, es importante, ya que intenta testear el impacto en empresas, y sobre todo en las pymes”, añade. 

Es clave que la implementación de la ley venga acompañada de una estrategia de comunicación para que la norma sea entendida por el mercado

Ametic

En cualquier caso, y acerca del debate sobre equilibrar innovación y regulación, el presidente de We The Humans tiene claro que no habrá grandes problemas: “Esta legislación no reprime la innovación, antes bien, la garantiza. Como dice el propio texto, su objetivo es garantizar la seguridad jurídica para facilitar la inversión e innovación en inteligencia artificial. Gran parte de los riesgos que hemos vivido hasta ahora con la IA han sido por una innovación descontrolada. Eso causa miedos en la sociedad e inhibe la inversión”.  

Apela Rouyet, al igual que el resto de expertos, a que habrá un reto importante en “el nivel de preparación para cumplir todos los requisitos de la norma, principalmente en materia de documentación para los casos de IA de alto riesgo o de gobierno en adopción de límites a la implantación de esta tecnología”.

En ese sentido, la patronal de las telecomunicaciones añade que estamos incorporando un tercer ingrediente a los de legalidad y robustez técnica, el ético, que plantea “una dificultad añadida respecto a cómo medirlo, teniendo en cuenta que la ética es algo subjetivo y cambiante según el momento y el lugar. Así, muchas organizaciones están creando códigos éticos para la IA, nombrando responsables de ética en IA e incluso designando panels, comités o consejos éticos, importando así obligaciones hasta ahora sólo existentes en determinados sectores como el farmacéutico”.