Un científico en un laboratorio analiza una prueba.

Un científico en un laboratorio analiza una prueba. Freepik

Tribunas

La UE está perdiendo el tren de la IA sanitaria

Mientras Europa se ha quedado enmarañada en una hiperregulación que exige garantías absolutas antes de empezar a experimentar, otros países han optado por enfoques más flexibles y adaptativos.

Publicada
Actualizada

La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una realidad cotidiana.

Desde cómo trabajamos hasta cómo nos informamos o nos comunicamos, los grandes modelos de lenguaje y otras aplicaciones de IA están transformando sectores enteros a una velocidad sin precedentes.

Y la salud, uno de los ámbitos más sensibles y estratégicos de cualquier sociedad, no es la excepción.

La aparición de soluciones como la reciente ChatGPT Salud ha vuelto a situar a Europa frente a una pregunta incómoda pero inevitable.

¿Vamos a quedarnos atrás por exceso de cautela regulatoria?

La respuesta es obvia y lo saben todos. Nos hemos pasado con la regulación y, sí, nos vamos a quedar atrás si no hacemos algo pronto.

Y no se trata de una discusión técnica ni reservada para expertos. Es un tema ineludible que afecta al futuro de nuestros sistemas sanitarios, a la competitividad económica del continente y, en última instancia, al bienestar de los ciudadanos.

Es una oportunidad real, no una mera moda tecnológica.

Los artífices del Reglamento Europeo de Inteligencia Artificial.

Los artífices del Reglamento Europeo de Inteligencia Artificial. Alberto Polo (SEDIA)

Conviene aclararlo desde el principio. Herramientas basadas en grandes modelos de lenguaje, como las desarrolladas por OpenAI, no son juguetes digitales ni simples asistentes conversacionales.

En sistemas sanitarios saturados, con escasez de profesionales y crecientes listas de espera, estas tecnologías representan una oportunidad tangible para ganar eficiencia sin perder calidad.

No sustituyen al médico ni automatizan la atención sanitaria, pero sí pueden liberar tiempo y recursos para lo que realmente importa: el contacto humano con el paciente.

Sin embargo, en Europa esta oportunidad ha llegado acompañada de una gran paradoja. Nos hemos comprometido tanto en garantizar los derechos relacionados con la protección de datos que nos hemos autobloqueado las posibilidades de innovar para poder competir y permitir el acceso a estas mejoras para los usuarios.

La Unión Europea ha optado por liderar la regulación de la inteligencia artificial a través del Reglamento Europeo de IA, al que se suma, en el ámbito sanitario, el Reglamento de Productos Sanitarios.

El objetivo es loable. Proteger a los ciudadanos, garantizar la seguridad y evitar usos indebidos de tecnologías poderosas.

El problema ha surgido cuando la buena intención ha derivado en un sistema excesivamente rígido. Especialmente en sectores como la salud, que se ve sometido a pasar ese doble filtro.

En la práctica, la mayor parte de las aplicaciones de IA relacionadas con la atención sanitaria se clasifican automáticamente como "de alto riesgo", lo que activa procesos largos, costosos y complejos antes de poder utilizarse en entornos reales.

Esto significa que incluso herramientas que sólo apoyan al profesional, sin tomar decisiones autónomas, quedan sometidas a exigencias regulatorias diseñadas originalmente para dispositivos médicos tradicionales, no para software dinámico que evoluciona rápidamente.

"En sistemas sanitarios saturados, con escasez de profesionales y crecientes listas de espera, las tecnologías de IA representan una oportunidad para ganar eficiencia sin perder calidad"

El resultado es un ecosistema donde innovar se vuelve lento, caro y, en muchos casos, inviable.

Mientras Europa se ha quedado enmarañada en la burocracia y una hiperregulación que parece exigir garantías absolutas antes de empezar a experimentar (lo que en algo como la IA implica necesariamente llegar tarde a todo), otros países han optado por enfoques más flexibles y adaptativos.

Estados Unidos, por ejemplo, permite entornos controlados de prueba en los que las herramientas de IA pueden utilizarse bajo supervisión profesional, generando evidencia real antes de una aprobación definitiva.

En Asia, varias potencias tecnológicas están integrando IA en procesos sanitarios de forma progresiva, aprendiendo sobre la marcha y ajustando la regulación en función de la experiencia.

La diferencia no está en la preocupación por la seguridad del paciente, que es compartida, sino en la capacidad de aceptar cierto grado de incertidumbre inicial para poder aprender y mejorar.

El caso de ChatGPT Salud ilustra bien esta situación. En Europa, estas herramientas podrían utilizarse en el momento actual, pero sólo en usos muy limitados: apoyo informativo, tareas administrativas, redacción de documentos o formación.

Todo aquello que tenga un impacto directo en decisiones clínicas queda, de facto, fuera de juego. Salvo que se supere un proceso regulatorio largo y complejo, para además acabar, en cualquier caso, bajo la supervisión de un profesional sanitario.

Y es precisamente en esos usos (siempre bajo supervisión humana) donde el potencial de mejora es mayor. No porque la IA deba decidir por el médico, sino porque puede ayudarle a decidir mejor, con más información y menos carga burocrática.

Consciente de que su marco regulatorio puede estar frenando la innovación, la Comisión Europea ha empezado a reaccionar. Y me consta que desde nuestra Secretaría de Salud Digital están apostando por que se produzca este cambio.

Así, en los últimos meses se ha impulsado la llamada ley ómnibus digital, con la que se pretende agilizar la aplicación de las normas sobre inteligencia artificial, reducir trámites y dar más margen a empresas e instituciones para innovar, sin renunciar a la protección de los ciudadanos.

"Regular bien no siempre significa regular más, y proteger a los pacientes implica también permitir que la innovación llegue a tiempo"

No se trata de eliminar reglas, sino de hacerlas más comprensibles, más proporcionales y más fáciles de aplicar.

Entre los cambios que se están planteando, destaca la posibilidad de probar nuevas soluciones de IA en entornos reales pero controlados antes de exigir todos los requisitos definitivos. La Comisión reconoce así que exigir garantías absolutas desde el primer momento puede retrasar avances que ya están funcionando en otros países.

Es un primer paso para asumir que regular bien no siempre significa regular más, y que proteger a los pacientes también implica permitir que la innovación llegue a tiempo.

Medidas como estas son absolutamente necesarias. Porque corremos un riesgo evidente. Europa acabará utilizando estas tecnologías cuando ya estén maduras, pero desarrolladas, entrenadas y validadas en otros contextos, en otros países, bajo otras normas y otros valores.

El problema, no obstante, sigue estando presente. Porque todo lo que ocurre en Europa va muy lento, y a saber el tiempo que se tarda en aprobar este nuevo proyecto de ley, mientras otros países dentro de la UE están reaccionando con más celeridad.

Alemania, por ejemplo, desde el año 2019, cuenta con un sistema acelerado de evaluación y reembolso para las apps de salud digital. A través de él pueden acceder a un sello específico en tres meses, de forma provisional, que debe demostrar durante los siguientes doce meses, antes de incorporarse al directorio DIGA y ser así costeado por su sistema de seguros sanitarios.

A menudo se habla de los riesgos de la inteligencia artificial, pero se olvida un aspecto clave. También existe el riesgo de no innovar. En sanidad, ese riesgo se traduce en sistemas cada vez más tensionados, pérdida de competitividad y ciudadanos que no se benefician de avances que ya existen.

La sobrerregulación no sólo frena a las grandes empresas tecnológicas. Afecta, además, especialmente a startups, centros de investigación y hospitales innovadores europeos, que no pueden asumir los costes y tiempos asociados a estos procesos.

Con ello, el talento se marcha, los proyectos se paralizan y la brecha con otros países se agranda.

Plantear una regulación más flexible no significa desproteger al paciente ni abrir la puerta a usos irresponsables. Significa aplicar el principio de proporcionalidad con inteligencia.

Significa permitir pilotos supervisados. Facilitar autorizaciones temporales y evaluaciones continuas en lugar de exigir perfección desde el primer día.

De lo contrario, pasará lo que ocurre con tantas otras cosas en nuestro sistema sanitario. La ley irá por un lado y la realidad irá por otro, y tendremos que evitar mirar para no darnos por enterados.

Europa ha demostrado en otras ocasiones que puede liderar cuando combina valores con pragmatismo. La protección de datos es un buen ejemplo.

Ahora necesita hacer lo mismo con la inteligencia artificial aplicada a la salud. Porque, si no, tendremos que resignarnos a ser un consumidor tardío de tecnologías desarrolladas en otros lugares.

Pero debemos darnos prisa. Mucha prisa.

Porque en un mundo donde la tecnología avanza a gran velocidad, quedarse quieto no es una opción neutral. Es, sencillamente, quedarse atrás.

*** Juan Abarca Cidón es presidente de HM Hospitales y vicepresidente de la Asociación Española de Derechos Sanitarios.