Ingenieros de IA mueven un robot que se dispone a realizar una intervención sanitaria en Santiago de Chile.

Ingenieros de IA mueven un robot que se dispone a realizar una intervención sanitaria en Santiago de Chile. Reuters

Tribunas

¿Puede la privacidad acabar siendo un freno para la atención sanitaria?

Cuando la protección absoluta de los datos impide que un paciente sea atendido a tiempo, el sistema ha perdido el equilibrio. Y ese desequilibrio, hoy, empieza a ser visible.

Publicada

Durante años hemos asumido como un axioma que cuanto más estricta es la protección de los datos sanitarios, mejor funciona el sistema.

Que blindar la información del paciente equivale automáticamente a proteger al paciente.

Y que cualquier flexibilización en este terreno supone una amenaza inaceptable.

Sin embargo, la realidad empieza a mostrarnos una paradoja incómoda. ¿Qué ocurre cuando la hiperprotección de la privacidad, tal y como está diseñada hoy, se convierte en un obstáculo para recibir atención sanitaria a tiempo?

Esta pregunta ya no es teórica. Está sobre la mesa. Y llega desde Estados Unidos, donde OpenAI acaba de publicar un informe sobre el uso real que millones de ciudadanos y profesionales están haciendo de ChatGPT en el ámbito de la salud, coincidiendo además con el lanzamiento de una nueva experiencia específica este año 2026: ChatGPT Salud.

Los resultados son, sencillamente, abrumadores.

Los adolescentes y los jóvenes utilizan cada vez más la IA para consultas de salud.

Los adolescentes y los jóvenes utilizan cada vez más la IA para consultas de salud. Reuters

1. Más del 5% de todas las conversaciones globales en ChatGPT son ya sobre salud.

2. Uno de cada cuatro usuarios semanales realiza consultas sanitarias.

3. Más de cuarenta millones de personas al día utilizan la herramienta para temas relacionados con su salud.

4. Y, quizá el dato más revelador: el 66% de los médicos estadounidenses declara usar inteligencia artificial (IA de ahora en adelante) en su trabajo para al menos un caso de uso.

No hablamos de pilotos. No hablamos de laboratorios. Hablamos de práctica cotidiana.

Millones de ciudadanos estadounidenses utilizan la IA cada día para entender su proceso de salud, preparar consultas médicas, interpretar informes clínicos, gestionar reclamaciones y burocracia, y saber qué hacer cuando el sistema no responde.

Es decir, la están utilizando como una capa de orientación, acompañamiento y traducción de un sistema complejo, caro y fragmentado.

"Mientras en Estados Unidos se avanza hacia modelos donde el ciudadano comparte sus datos para mejorar su atención, en la UE seguimos atrapados en un debate casi exclusivamente defensivo"

La IA no está sustituyendo médicos. No está sustituyendo hospitales. Está sustituyendo, sobre todo, los silencios del sistema.

Y esto ocurre en un país con enormes desigualdades de acceso, con zonas rurales sin hospitales cercanos, con listas de espera implícitas en forma de barreras económicas, y con una burocracia feroz asociada a los seguros.

Pero ahora la cuestión va a ir un paso más allá.

Con el lanzamiento de ChatGPT Salud, OpenAI ha anunciado acuerdos con plataformas tecnológicas como b.well, que unifican historiales médicos. Los pacientes que lo deseen y otorguen su consentimiento pueden conectar sus datos clínicos a la herramienta. De esta manera, la IA puede acceder a información real del paciente (diagnósticos previos, medicación, resultados, antecedentes) y ofrecer respuestas mucho más contextualizadas y útiles.

Quienes lo están probando hablan de un salto cualitativo enorme respecto al uso del ChatGPT genérico.

Y aquí es donde aparece el verdadero punto crítico en esta situación.

Porque mientras en Estados Unidos se avanza, sin miramientos, hacia modelos donde el ciudadano, de forma voluntaria, decide compartir sus datos para mejorar su atención, en la Unión Europea seguimos atrapados en un debate casi exclusivamente defensivo: cómo impedir, cómo limitar, cómo bloquear, cómo sancionar.

La UE observa este fenómeno con una mezcla de recelo y parálisis.

Y lo hace justo cuando sus sistemas sanitarios presentan síntomas evidentes de agotamiento.

España no es una excepción, aunque obviamente está sometida a las autoridades europeas.

Nuestro Sistema Nacional de Salud sigue siendo uno de los grandes logros colectivos del país, pero atraviesa una tensión estructural que ya nadie discute. La atención primaria está desbordada. Hay demoras diagnósticas, dificultades para cubrir plantillas y agotamiento profesional. Los costes no paran de crecer y la ciudadanía está cada vez más frustrada porque no ve satisfechas sus necesidades.

En este contexto, la pregunta incómoda es inevitable:

¿De verdad podemos permitirnos no explorar todas las herramientas que puedan ayudarnos a atender mejor y llegar antes?

Porque el debate real no es "privacidad sí o privacidad no". El debate es mucho más básico. Si yo como ciudadano quiero ceder mis datos para recibir una mejor atención ¿por qué me lo tienen que impedir?

En el fondo, hablamos de libertad también.

Por tanto, ¿podemos diseñar sistemas donde el ciudadano pueda decidir compartir sus datos de forma segura para mejorar su atención?

¿Podemos construir arquitecturas tecnológicas donde la privacidad esté protegida, pero no a costa de bloquear el uso clínico útil de la información?

¿Podemos aceptar que, en determinadas circunstancias, el mayor riesgo no es que un algoritmo acceda a datos, sino que el paciente no llegue a tiempo?

Una sanitaria analiza una radiografía utilizando IA.

Una sanitaria analiza una radiografía utilizando IA. Reuters

Lo paradójico es que gran parte de la población ya ha respondido a esta pregunta con su comportamiento. Millones de personas ceden cada día sus datos personales a redes sociales, plataformas de comercio electrónico, aplicaciones de ocio o herramientas de productividad, muchas veces sin leer una sola línea de las condiciones de uso.

Es decir, existe una disonancia profunda entre la moral regulatoria y la realidad social.

Mientras tanto, la IA se está usando igualmente.

1. Los ciudadanos preguntan a ChatGPT desde su casa.

2. Los médicos prueban herramientas por su cuenta.

3. Los profesionales buscan atajos para ahorrar tiempo.

Todo ello sin estrategia pública, sin marco claro y sin liderazgo institucional.

Ese escenario (uso masivo sin gobernanza) es probablemente el peor de todos.

Porque el riesgo no es que la IA entre en sanidad. El riesgo es que lo haga de forma caótica y descontrolada.

Europa ha construido en los últimos años un enfoque regulatorio muy ambicioso, con el Reglamento General de Protección de Datos primero y ahora con el Reglamento de Inteligencia Artificial. Ambos persiguen objetivos legítimos. Pero también comparten un problema: están pensados desde una lógica de control del riesgo tecnológico, no desde una lógica de optimización del beneficio clínico.

Son regulaciones hijas de tecnologías del siglo pasado aplicadas a tecnologías del siglo XXI.

A ello se suma el miedo político a equivocarse, la resistencia (inútil) de algunas organizaciones profesionales, la fragmentación competencial y una cultura administrativa que penaliza mucho más el error que la inacción.

El resultado es un ecosistema extraordinariamente prudente... y peligrosamente inmóvil.

Pero la sostenibilidad futura no se garantiza conservando el pasado.

Se garantiza adaptándose e introduciendo cambios disruptivos que nos pueden ayudar a avanzar y a mejorar. Ya lo dijo hace un siglo el economista Joseph Schumpeter en su teoría más famosa sobre la destrucción creativa: la innovación destruye incesantemente las estructuras antiguas mientras crea otras nuevas.

Mientras tanto, Estados Unidos (con todos sus problemas) está probando, midiendo y corrigiendo.

No porque tengan una visión más ética o sean más responsables, sino porque su sistema, al estar roto en muchos aspectos, genera una presión enorme para buscar soluciones.

Pero la sostenibilidad futura no se garantiza conservando el pasado. Se garantiza adaptándose.

La cuestión de fondo es sencilla: la IA no va a salvar por sí sola los sistemas sanitarios, pero puede ser un multiplicador brutal de eficiencia, acceso y capacidad clínica.

Puede ayudar a que el médico dedique más tiempo al paciente.

Puede ayudar a que el paciente llegue mejor preparado.

Puede reducir errores.

Puede mejorar la adherencia.

Puede anticipar riesgos.

Renunciar a explorar seriamente estas posibilidades por un miedo mal enfocado sería una irresponsabilidad histórica.

Porque cuando la protección absoluta de los datos impide que un paciente sea atendido a tiempo, el sistema ha perdido el equilibrio. Y ese desequilibrio, hoy, empieza a ser visible porque pasa de ser un debate tecnológico a un debate ético.

Y la ética sanitaria, desde Hipócrates, ha sido siempre clara: primero, principio de no maleficencia. Es decir, no hacer daño.

A veces, no dañar significa proteger los datos. Pero otras veces significa no llegar tarde al diagnóstico si lo puedes evitar.

*** Juan Abarca Cidón es presidente de HM Hospitales.