La Unión Europea tenía previsto presentar la nueva y esperada, por cacareada y por necesaria, regulación en materia de inteligencia artificial. La norma, que daría respuesta a las limitaciones éticas de esta tecnología y a su futuro desarrollo, es clave en el momento actual: estamos en pleno debate sobre los sesgos y las 'black boxes' en muchos algoritmos, sobre los problemas de la vigilancia masiva y el reconocimiento facial, acerca de la brecha racial aumentada por la tecnología...

Eso por el lado negativo, que por el positivo también había muchas esperanzas puestas en esta regulación: Europa necesita extraordinariamente un impulso a su tejido innovador en IA para recuperar algo de latido frente a China -con el importante motor público- y Estados Unidos -hogar de las todopoderosas hasta el extremo multinacionales de Silicon Valley-.

En cualquier caso, la regulación europea se filtró antes de lo previsto, una semana antes. Y lo que sucedió a renglón seguido no debe sorprendernos: una sucesión de comentarios y revisiones de lo más destacado de este documento de más de 80 hojas. En D+I, Alfonso Muñoz ya desgranó algunas de las principales claves del mismo. Ahora, si me permiten, intentaremos esbozar una panorámica colectiva y, se lo reconozco, a vuelapluma pero intentando ver los aciertos y errores que se pueden percibir de este texto.

La primera observación relevante corre a cargo de Andrés Torrubia y demuestra un claro desequilibrio entre los dos aspectos -limitar lo peligroso y potenciar lo positivo- de esta ecuación mágica que debería ser la inteligencia artificial: las palabras alto riesgo ("high-risk") aparecen 263 veces en el texto, mientras que beneficio ("benefit") aparece solo 10 veces.

¿Cómo es posible que una norma que busca luchar contra los sesgos acabe estando sesgada de inicio para reflejar solo los problemas y no las oportunidades de una tecnología? Primer punto de discusión que deberá abordarse con cuidado para no lastrar la innovación y la competitividad europeas en este terreno, precisamente uno de los aspectos que estamos desesperadamente buscando con la soberanía digital europea.

Una vez sentado este prejuicio, empezamos a desentrañar el documento. Un texto, como decimos, de más de 80 páginas y que -como la mayoría de regulación europea- peca de generalizaciones y consideraciones tan amplias que dejan un mar de interpretaciones abiertas. ¿Seguridad jurídica? Eso queda en 'stand by'.

Para muestra, un botón. ¿Qué considera la Unión Europea como "un sistema de IA"? El documento recoge desde acepciones claras y lógicas (machine learning, aprendizaje profundo, métodos bayesianos...) hasta cosas como "sistemas expertos" o "bases de conocimiento".

Como destacaba Hugo Gävert, "básicamente todo podría llamarse inteligencia artificial, lo cual es genial para vender que tienes IA en la empresa". Si el propio texto no es capaz de definir correctamente el objeto de su regulación, empezamos a tener un serio problema. "De repente todo el mundo dejó de hacer IA para hacer solo software y estadística", bromeaba Richard Tomsett en Twitter. No es para menos: la indefinición de la propia concepción a regular puede provocar situaciones absurdas.

Lo bueno... pero agridulce

Obviamente el documento comunitario trae consigo muchos aspectos positivos que no podemos pasar por alto, especialmente en lo que concierne a la protección de los ciudadanos y el freno a determinados comportamientos monopolísticos de las grandes multinacionales. Reconocerlo es obligado.

En resumen, el documento filtrado recoge la prohibición terminante del uso de la vigilancia masiva apoyada por la inteligencia artificial (como pueda ser el reconocimiento facial, tan común en China). Irónicamente, los gobiernos no estarán sujetos a esta limitación siempre que sea para "salvaguardar la seguridad pública". Tampoco las esferas militares deberán someterse a estos dictados. Carta blanca para potenciales dictaduras en el seno del Viejo Continente, como pueda ser Hungría.

También se promueve la creación de autoridades nacionales de inteligencia artificial y la imposición de sellos de calidad -un marcado CE- en los sistemas de IA aprobados por la UE, al estilo de lo que ya venían planteando think tanks como We The Humans.

Ideas meritorias que arrojan, no obstante, una cierta duda sobre el margen de maniobra que estos requerimientos dejan a las startups y emprendedores. Considerando que se imponen auditorías y procesos de aprobación muy estrictos para cualquier desarrollo de IA, no cabe duda de que las grandes empresas podrán hacer frente a esta nueva carga burocrática (y económica). Que pueda enfrentarse a ello una startup es más discutible. Veremos el detalle de este aspecto, porque de aterrizarse de manera excesiva podría eliminar de un plumazo a todo el ecosistema innovador europeo.

Los reguladores europeos han puesto mucho sus miras en China (y en Black Mirror), porque también proponen prohibir los sistemas de 'scoring' social (aquellos que otorgan una puntuación a cada persona por su comportamiento o contexto). En una primera lectura, y poniéndonos en situaciones distópicas, resulta una medida lógica. Pero, ¿los autores del texto han tenido en cuenta que este 'scoring' podría tener ventajas claras en determinados terrenos, como el de la seguridad vial, la reducción de las cuotas de seguros e incluso para evitar crisis hipotecarias a gran escala como las que vivimos en 2008? Una cosa es evitar un sistema de control social como el que lleva a cabo el gobierno chino y otra es prohibir sin atenerse a ninguna consideración. 

En conclusión: se puede hacer una norma de blancos y negros o una en escala de grises. En esta ocasión, la Unión Europea parece haber optado por la contundencia en la generalidad en lugar de por un encaje de bolillos preciso que diera algo de oxígeno a la innovación y la transformación digital. Una norma que está alineada con las preocupaciones lógicas y necesarias en torno a la IA, pero que se ha plasmado de tal modo que puede suponer un nuevo -y quizás el último- lastre para el desarrollo tecnológico del Viejo Continente.