Dice el refrán que 'donde vayas tarde, no te muestres cobarde'. En vista del contenido de la primera propuesta de regulación para la Inteligencia Artificial (IA) que acaba de presentar la Comisión Europa (CE), parece que sus creadores no han tenido muy en cuenta el proverbio.

A pesar del aplauso internacional al texto, pues representa el primer esfuerzo a gran escala por poner límites a la tecnología, por muy grande que sea el paso que la CE acaba de dar, a nadie se le escapa que debería haberlo dado hace bastante tiempo.

Distintos algoritmos llevan años dirigiendo la información que recibimos, los anuncios que vemos, el entretenimiento que consumimos, los empleos a los que optamos y algunos servicios a los que accedemos, sin que nadie se haya tomado la molestia de supervisarlos. Pero, como también hay un refrán que dice que 'más vale tarde que nunca', no queda más remedio que alegrarse. Las autoridades europeas por fin estén prestando atención a la tecnología que está transformándolo todo, y no siempre para mejor.

Independientemente del retraso con el que llega la regulación, la gran crítica al texto reside en su falta de concreción y robustez. "Si bien la propuesta abre la puerta a algunas formas potencialmente efectivas de reducir algunos de los impactos más dañinos de la IA, no va lo suficientemente lejos como para proteger completamente a las personas de estos daños", advierte un análisis de la Asociación Europea de Derechos Digitales (EDRi).

Distintos algoritmos llevan años dirigiendo la información que recibimos sin que nadie se haya tomado la molestia de supervisarlos

Uno de los principales éxitos de la propuesta ha sido el de categorizar los sistemas de Inteligencia Artificial en función de sus riesgos para la sociedad en lugar de por sus distintos casos de uso.

Gracias a este enfoque, la CE introduce la categoría de "riesgos inaceptables" con la que directamente prohíbe usos que "manipulen subliminalmente a las personas" y "la identificación biométrica en tiempo real en espacios públicos para aplicar la ley".

Aunque a primera vista ambos límites suenan muy bien, ¿qué aplicaciones entrarían en la categoría de manipulación subliminal? Los algoritmos que recomiendan noticias falsas (Facebook, Google y Twitter), vídeos que fomentan las teorías de la conspiración (YouTube) y productos que incumplen las leyes antimonopolio (Amazon) podrían encajar perfectamente en esta descripción, lo que probablemente dará lugar a una serie de batallas legales y ejercicios de presión para evitar que los productos estrella de las big tech salgan mal parados.

Luego está el delicadísimo asunto del reconocimiento facial, sobre el que se centran la mayoría de las críticas. "En primer lugar, la prohibición sobre la aplicación de la ley está sujeta a amplias excepciones. En segundo, no aplica a otras autoridades (escuelas, gobiernos locales) ni empresas privadas (supermercados, empresas de transporte) a pesar de que ya realizan vigilancia biométrica masiva.

Y tercero, la prohibición solo se aplica a usos en tiempo real, lo que deja una gran brecha para usos igualmente dañinos como la policía que monitoriza a las personas", advierte la EDRi.

La entidad forma parte de una Iniciativa Ciudadana Europea llamada 'Reclama tu cara', que demanda la ilegalización total del reconocimiento facial en Europa. El movimiento, que ya cuenta con 48.000 firmas, ha documentado polémicos casos de uso de la tecnología en países europeos para vigilar a manifestantes y controlar aeropuertos y fronteras, entre otros, y que la EDRi califica de "infracción de los derechos fundamentales".

Otro de los aspectos que más llama la atención sobre la propuesta de la CE es que permite la autorregulación de muchos casos de uso de la categoría de "alto riesgo". Es decir, aunque obligaría a los desarrolladores a someter sus sistemas a una auditoría, podrían llevarla a cabo ellos mismos, sin necesidad de pasar por una entidad independiente. Como si yo me hubiera puesto nota a mí misma en mi examen de la selectividad. Un plan sin fisuras.

Y la lista de pegas no acaba aquí. Los interesados en promover la innovación y el desarrollo de inteligencia artificial made in Europe lamentan que el texto podría favorecer aún más a las grandes empresas capaces de asumir cualquier tipo de multa y poner barreras de entrada aún mayores para los nuevos y pequeños jugadores europeos.

Aun así, que la CE haya dado el primer gran paso internacional para controlar la tecnología que se ha hecho con el control de nuestras vidas siempre será una buena noticia. Europa ya se convirtió en el gran guardián de los derechos digitales con el RGPD, y podría jugar el mismo papel con la IA si escucha atentamente a los expertos. Puede que haya llegado un poco tarde, pero confío en que no vuelva a ser cobarde.