Que la Unión Europea es un motor capaz de generar legislación de referencia sobre casi cualquier materia es algo fuera de cualquier discusión. Que la gran baza del Viejo Continente en la arena tecnológica pasa precisamente por ser la punta de lanza regulatoria, también. Lo comprobamos, hace ya unos años, con el Reglamento General de Protección de Datos (GDPR) y, también, con los esfuerzos por asegurar una soberanía tecnológica en semiconductores o la nube.

Pero hay un terreno, el tema de moda de este año, que también está bajo la lupa de Bruselas. Me refiero, cómo no, a la inteligencia artificial. Después de varios años de trabajo, la UE presentó en 2021 su propuesta de reglamento sobre IA. Un texto, que se espera aprobar durante la presidencia rotatoria de España en el segundo semestre de este curso, que incluye conceptos como el "enfoque basado en riesgos", indicadores más claros sobre el funcionamiento de los algoritmos y restricciones a la vigilancia biométrica masiva, así como aspectos más ligados a los valores europeos y la defensa de los derechos humanos en la era digital.

Esta propuesta, junto con los trabajos individuales de los distintos estados miembros (como España, sede del 'sandbox' en que se deben probar estos ajustes legislativos), convertían por pleno derecho a Europa en el faro que guiara el barco de la inteligencia artificial y acotara su travesía para evitar chocar contra las rocas de lo humanamente aceptable. Todos lo dábamos por hecho, lo seguimos haciendo, confiando en que el resto del mundo seguirá nuestros postulados tal y como sucedió con el GDPR.

Sin embargo, eso nos obliga a una pregunta fundamental. ¿Qué están haciendo en Estados Unidos o China, los motores a su vez de la industria de IA por excelencia? Desde el país asiático, que sí ha enarbolado varias normas al respecto, no se espera que pueda servir de hoja de ruta global debido a las injerencias gubernamentales en las empresas tecnológicas y la escasa o nula preocupación por la privacidad y la ética en estos menesteres. 

Pero lo de Estados Unidos olía a chamusquina. Vale, que EEUU nunca se ha caracterizado por ser un país excesivamente regulador y el liberalismo es la premisa de partida de su modelo económico. Cierto que parte de su extraordinaria capacidad de innovación llega de la flexibilidad legislativa con la que pueden operar sus empresas. Pero resulta inaudito que las grandes compañías del sector, que cuentan ya con sus propios códigos de autocontrol, tuvieran que pedir en repetidas ocasiones al Gobierno que pusiera normas claras sobre las que poder operar en el campo de la inteligencia artificial.

Eso ya no resulta tan frecuente, que el sector privado pida (y casi suplique) que las autoridades le ponga límites a su capacidad de maniobra. Pero es que los incesantes debates sobre sesgos, usos abusivos en el reconocimiento facial, privacidad, toma de decisiones automatizadas o transparencia de los algoritmos obliga a que haya un debate social y público que sólo se puede lograr desde las más altas instancias.

Por el momento, EEUU no ha formulado ley alguna. La Administración Biden sí que publicó una guía para la defensa de la democracia y de los derechos de la ciudadanía ante la irrupción de la IA, pero poco más. Hace unos días, el presidente estadounidense se reunía con sus asesores del ramo y tan sólo se limitó a decir que "debemos abordar los riesgos potenciales de la inteligencia artificial para nuestra sociedad, economía y defensa nacional". Nada más.

La buena nueva es que sí comienzan a moverse algunos hilos en un segundo plano que invitan a pensar en que EEUU comienza a plantearse la necesidad de regular en este sentido. Esta semana conocíamos que la Administración Nacional de Telecomunicaciones e Información (NTIA), una agencia del Departamento de Comercio, abría una consulta pública para saber cómo realizar auditorías de sistemas de inteligencia artificial. Y si bien tan sólo es una solicitud de opiniones a los expertos y la industria, muestra que los planes de Washington van en la misma dirección que Europa: analizar y comprobar el buen diseño y uso de la IA para evitar esos daños potenciales que Joe Biden todavía sigue sopesando...