Ahora sí, la Ley de Inteligencia Artificial de la Unión Europea es un hecho. La Eurocámara la aprobó finalmente el miércoles, tras superar no pocos obstáculos y largas horas de debate y desacuerdos durante los trílogos. Un marco legal para -en palabras del Parlamento- promover una IA confiable y salvaguardar los derechos fundamentales de los ciudadanos de la UE, al tiempo que impulsar la innovación.

Sobre sus grandes retos hemos discurrido ya en D+I. Ahora la pregunta del millón es, ¿funcionará? ¿Será una herramienta útil para proteger dichos derechos? ¿Ayudará a impulsar un ecosistema de IA responsable o será más bien un obstáculo? ¿Cuáles son las claves para su efectiva implementación? ¿Qué impacto tendrá en el mundo?

En los últimos días he tenido la oportunidad de participar de conversar con diferentes stakeholders al respecto. Estas son sus principales reflexiones e ideas.

Un hito para la gobernanza digital

“Después de muchos años hablando de marcos éticos y principios a gran escala, por primera vez un territorio grande y fundamentado en el estado de derecho pretende regular el uso y puesta en el mercado europeo de la IA”. Lo asegura Toni Lorente, asociado sénior en el think tank The Future Society, donde se dedica a analizar y promover la buena gobernanza de la IA. 

Durante el evento de presentación de la nueva revista Compiler, centrada en política tecnológica, Lorente señaló que la AI Act es “un hito es importante”, en un contexto en el que han emergido acuerdos -como la Declaración de Bletchley o el Código de Conducta del G7- “que capturaban buenas intenciones pero sin ninguna base legal”.

“Nos movemos hacia un nuevo régimen en el que el regulador tiene potestad para determinar si las prácticas empresariales son buenas o no”, destaca. Ello a pesar de las asimetrías de información que hay entre el regulador y los gigantes tecnológicos, que “condicionan las dinámicas de poder que hay y habrá al regular la IA”.

La capacidad para atajar esas asimetrías de información y controlar el rol de la industria privada para evitar la captura regulatoria serán clave para el éxito del mandato de la nueva Oficina Europea de IA, según Lorente.

La oficina se enfrenta también a otros retos, como el de “reforzar el desarrollo y el mercado de la IA segura y confiable”. Y ello teniendo en cuenta que los estándares, dado el peso de la industria en su desarrollo, no son una solución perfecta sino solo una pieza en un puzle más complejo.

Otro desafío será coordinar a los distintas partes interesadas, “garantizando la participación de la sociedad civil en procesos como el borrador de los códigos de práctica, para así asegurar su legitimidad democrática”, según Lorente. 

Participación de la sociedad civil

En esta línea, la responsable de políticas digitales de Lafede.cat y cofundadora de Algorights, Judith Memvibres, defiende que, para hacer que la ley sea efectiva, “es muy importante que todos los marcos y estándares que tiene que definir la Oficina Europea de IA tengan en cuenta la participación y las aportaciones de la sociedad civil”.

“Estas estandarizaciones generalmente no son un espacio en el que las organizaciones de derechos humanos y de justicia social estemos representadas”, añade Memvibres. Dado el impacto de la IA en los derechos fundamentales, consideran muy importante que estos espacios se abran a los movimientos sociales. De hecho, tanto Lafede.cat como Algorights forman parte del grupo europeo de incidencia sobre la ‘AI Act.’

Ambas organizaciones trabajan en recomendaciones específicas para la estandarización, sobre todo en el ámbito de la evaluación de impacto de la IA en los derechos fundamentales y en el registro de algoritmos de uso público. “También preparamos propuestas para garantizar una mayor protección de derechos en aquellos ámbitos en los que el reglamento europeo lo permite”, señala Memvibres.

Por ejemplo, en la ley de IA se abre la puerta a que los Estados implementen leyes más restrictivas. Uno de los objetivos de Lafede.cat y Algorights es que los sistemas de reconocimiento de emociones se prohíban en todos los ámbitos, y no solo en los que actualmente contempla la Ley de IA: el trabajo y la educación. “No entendemos por qué otros ámbitos sensibles como el policial, la migración o el acceso a servicios públicos no se han incluido”, afirma Memvibres. En especial, considerando la falta de evidencia que pruebe la validez de estos sistemas.

La experta en políticas digitales asegura que van a vigilar de cerca la implementación de las prohibiciones y de las salvaguardas de la ley. “Es importante que se creen mecanismos de observación por parte de la sociedad civil para que podamos monitorizar informaciones que se van a enviar a la oficina de la IA, como por ejemplo las autoevaluaciones del nivel de riesgo”, reivindica.

Colaboración público-privada

Desde la sociedad civil emergen nuevas organizaciones que se proponen también influir en la toma de decisiones para un desarrollo responsable de la IA. Cerca del Parlamento europeo se inauguró esta semana el think tank International WomenX in Business for Ethical AI (IWIB4AI). Su fundadora, la abogada Tatiana Caldas-Löttiger, se propone aportar soluciones en los que la IA afecta los derechos humanos, colaborando con el sector privado.

La colaboración público-privada será imprescindible para el éxito de la Ley de IA y, a mayores, de la Estrategia Europea de IA, como señala Cristina Gallach, ex Comisionada Especial para la Alianza de la Nueva Economía de la Lengua. En el caso de su negociado, pone como ejemplo la alianza para el desarrollo de un modelo de lenguaje multilingüe (en español y en las lenguas cooficiales del Estado).

El grueso de esta iniciativa -parte del PERTE de la Lengua que ella misma lideraba- se distribuye entre los centros de tecnología de la lengua de varias universidades, a las que se une el Barcelona Supercomputing Center como centro de supercomputación nacional “para aportar capacidad de cómputo y en labores de coordinación”. 

Gallach aboga por grandes inversiones públicas en el desarrollo de modelos de IA generativa “para limitar el control que ejercen las grandes tecnológicas estadounidenses sobre los datos lingüísticos”. “Se trata también de desarrollar un importante elemento de soberanía sobre un ámbito estratégico”, añade. Además, destaca que “una mayor inversión en tecnologías del lenguaje en español y en las lenguas cooficiales facilitará el desarrollo de aplicaciones para un mejor servicio público”.

A nivel europeo, la funcionaria también cree que se debe invertir mucho más en tecnologías de lenguaje. “Además de contribuir a preservar las lenguas minoritarias en el ámbito digital, algo sumamente importante para nuestra diversidad lingüística, podrán desarrollar unas aplicaciones mucho más útiles para la ciudadanía, sin sesgos de traducción”, apunta. “Regulación e inversión son fundamentales y deben ir de la mano”, concluye Gallach.

Minimizar riesgo, maximizar oportunidades

Desde Google, su Director de Relaciones Institucionales y Políticas Públicas para España y Portugal, Miguel Escassi, coincide con la necesidad de acompañar regulación con inversión. “Es hora de abordar la inteligencia artificial de manera audaz y responsable, no solo minimizando el riesgo, sino maximizando las oportunidades”, señaló durante el debate en el lanzamiento de Compiler. 

“Debemos asegurarnos de que la IA haga la vida más fácil, ayude a resolver desafíos complejos y nos permita alcanzar grandes objetivos. Hasta la fecha, ha habido un enfoque fuerte y apropiado en abordar los posibles riesgos futuros de la IA. Hemos visto a los gobiernos tomar medidas importantes junto con las empresas y la sociedad civil para abordar y mitigar estos riesgos. La Ley de IA es un buen ejemplo de ello”, asegura Escassi.

También incide en la importancia de la colaboración multistakeholder. “Para aprovechar plenamente el potencial transformador de la IA para la economía, la salud, el clima y el florecimiento humano, necesitamos un debate más amplio sobre los pasos que los gobiernos, las empresas y la sociedad civil pueden tomar para hacer realidad la promesa de la IA y alcanzar el potencial que queremos”.

En opinión de Escassi, ello pasa por “invertir en infraestructura e innovación”, por “construir capital humano y una fuerza laboral potenciada por la IA” y por “promover la adopción generalizada y la accesibilidad universal”.

Efecto performativo en Latinoamérica 

Escassi también habla de la idoneidad de una regulación global para IA. Por el contrario, Lorente se muestra escéptico, y pone sobre la mesa uno de los principales problemas que esto plantea: que “cuanto mayor es la escala de un acuerdo, más difícil es cubrir en profundidad los problemas que quieren solucionarse”.

Aunque estamos lejos de contar con algo como una ley de IA para todo el mundo, no se puede negar el ‘efecto Bruselas’. Es decir, el eco que la regulación desarrollada en la Unión Europea tiene en otros marcos legislativos en el globo. Hay numerosos ejemplos de ello. Sin ir más lejos, el Reglamento General de Protección de Datos (RGPD), que ha inspirado leyes de privacidad en numerosos países.

El efecto performativo en América Latina y el Caribe es claro, en opinión de Mara Balestrini, especialista líder en transformación digital del laboratorio de innovación del Banco Interamericano de Desarrollo (BID Lab). Desde allí “se mira a Europa y se busca en muchos casos alinearse con sus políticas”, señala.

"En Latinoamérica carecemos tanto de una normativa tan avanzada como de un organismo que facilite la gobernanza entre los diversos países, lo que dificulta la armonización regulatoria", señala Balestrini. Es uno de los motivos por los que el BID, como organismo multilateral cuyas operaciones tienen un foco mayoritario en la región, lanzó fAIr LAC.

fAIr LAC es un ejemplo de alianza entre los sectores público y privado, la sociedad civil y la academia, “pionera en la región”, apunta Balestrini. Busca incidir en la promoción del uso responsable de la IA, tanto en la política pública como en el ecosistema emprendedor, con una batería de acciones y recursos. Por ejemplo, herramientas de autoevaluación ética para pymes y start-ups, y para inversores y fondos de capital riesgo. 

Incentivos desalineados

Cualquiera que lea este artículo pensará que todas las voces están más o menos alineadas en la importancia de que todas las partes interesadas sean escuchadas y tenidas en cuenta, de que haya colaboración entre ellas con una aproximación multisectorial, de que la IA se desarrolle y despliegue de forma responsable y respetando los derechos humanos, y de que su implementación sirva para mejorar el bienestar ciudadano.

Sin embargo, el demonio está en los detalles: qué busca maximizar cada actor, cuáles son sus motivaciones, qué grandes objetivos se quieren perseguir con el despliegue de la IA y qué quiere cada cual decir cuando habla de ‘IA responsable’. Claramente, los incentivos varían mucho para unos y otros: sociedad civil, academia, sector público y sector privado.

Para unos, se trata de proteger nuestros derechos; para otros, la democracia; para otros, el crecimiento económico y la competitividad, o simplemente seguir engordando la cuenta de resultados. No es que lo demás no les importe, pero será secundario.

Estas diferencias son las que han protagonizado los tira y afloja en la redacción final de la Ley de IA. Son también las que emergerán en las discusiones de cómo aterrizar la norma, cuya traslación legal será clave. Lo próximo será designar las autoridades nacionales a cargo de la supervisión del cumplimiento de la norma, y para finales de año se espera la entrada en vigor de las prohibiciones en la ley.

Posteriormente, se publicarán los Códigos de Práctica para los modelos de IA de propósito general (GPAI) y, en poco más de un año, se aplicarán las obligaciones para estos sistemas. De aquí a dos años, la ‘AI Act’ será plenamente aplicable, salvo las reglas para los sistemas de IA integrados en productos regulados, cuya implementación se retrasará un año más.

Así que sí: tenemos Ley de IA, pero su éxito y eficacia no está en absoluto garantizado. Falta mucho que hacer para lograrlo, y en buena medida dependerá de cómo se haga, de cuán participativo sea el proceso y de si se respeta, en todas sus ramificaciones, la intención inicial de la norma. Lejos de haber acabado, el trabajo comienza ahora.