José María Rodríguez Roldán.

José María Rodríguez Roldán. Sevilla

Opinión OPINIÓN

Inteligencia artificial y medicina: entre el progreso y la prudencia

Publicada

La semana pasada tuve ocasión de pronunciar en la Real Academia de Medicina y Cirugía de Sevilla una conferencia sobre inteligencia artificial y ética médica, algo que ya no pertenece al futuro, sino al presente más inmediato.

Los médicos lo percibimos cada día: la inteligencia artificial está entrando en nuestras consultas, en los sistemas de triaje, en la interpretación de imágenes y, muy pronto, en ámbitos aún más profundos de la práctica clínica.

Y si la medicina cambia, cambia también, inevitablemente, la relación entre médico y paciente. La pregunta inicial es sencilla: ¿qué es realmente la inteligencia artificial?

Como recordaba en la presentación, la inteligencia artificial son sistemas computarizados capaces de imitar ciertos comportamientos cognitivos humanos: ver, leer, aprender o tomar decisiones.

Es decir, mecanismos que procesan datos para generar información y conocimiento, algo, en apariencia, que se asemeja a la sabiduría. Pero ese 'parecido' dista mucho de ser equivalencia.

Porque procesar miles de radiografías en pocos minutos no equivale a ejercer un juicio clínico. El juicio implica discernimiento, experiencia, sensibilidad y, sobre todo, responsabilidad moral.

Como señalaba Aristóteles con su concepto de nous, conocer y comprender es mucho más que calcular. Y como advertía Heidegger, pensar no es simplemente razonar: exponerse a la realidad, no reducirla a un algoritmo.

Los sistemas de inteligencia artificial carecen de todo eso. No piensan, no juzgan y, desde luego, no tienen conciencia moral.

Ejecutan procesos, pero no pueden responder ante un dilema ético. No son agentes morales: no pueden elegir entre el bien y el mal. Pueden ser instrumentos extraordinarios, pero no sujetos responsables.

Hoy, la inteligencia artificial supera al ser humano en muchos aspectos: velocidad, precisión, capacidad de manejar montañas de datos y consistencia matemática.

Puede detectar nódulos pulmonares con alta precisión, puede anticipar y predecir riesgos, diseñar tratamientos personalizados o automatizar procedimientos administrativos.

De hecho, algunos algoritmos diseñados por inteligencia artificial ya funcionan como sistemas heurísticos de apoyo, capaces de sugerir vías diagnósticas basadas en miles de casos previos. Sin embargo, la medicina no es únicamente técnica.

En caso de ser así, un cirujano podría operar solo siguiendo un esquema y un intensivista podría gestionar una UCI basándose solamente en los datos que los sistemas de monitorización ofrecen.

Y no es así. La medicina es un ejercicio ético que requiere de comprensión del contexto personal del paciente, escucha,
prudencia y empatía.

La práctica humanística de la medicina no puede ser sustituida por ningún modelo matemático. Por eso conviene alertar sobre los riesgos. El primero es la opacidad.

Muchos sistemas algorítmicos digitales funcionan como 'cajas negras': ofrecen una propuesta sin explicar cómo han llegado a ella. Eso no es éticamente correcto cuando una decisión afecta a la vida o la salud de una persona.

Otro riesgo de la medicina algorítmica es el sesgo: si los datos con los que se entrena un modelo están sesgados (por sexo, edad, etnia o nivel socioeconómico), el resultado también lo estará.

La inequidad algorítmica no es ciencia ficción; existe y ya ha sido denunciada por diversos estudios. Un tercer riesgo es la deshumanización.

Si el paciente observa que quienes le atienden miran más a la pantalla que a sus ojos, iremos perdiendo ese espacio relacional que constituye la esencia de la medicina.

La relación clínica es un palimpsesto emocional. Sobre ella se escriben las dudas, los miedos, las esperanzas y las decisiones. Borrarla es un error irreversible. Pero no menos importante es la responsabilidad.

¿Quién responde cuando el sistema falla? ¿El médico que confió en la recomendación? ¿El hospital que lo implantó? ¿La empresa que lo diseñó?

La deontología médica española ya ha comenzado a abordar estas cuestiones. El Código de 2022 exige transparencia, trazabilidad y control ético en el desarrollo y uso de la inteligencia artificial. Y enfatiza: los algoritmos pueden ayudar, pero no
sustituyen nunca el deber de buena práctica médica.

En resumen, la inteligencia artificial no es un enemigo, pero tampoco un oráculo. Puede hacer una medicina más exacta y más accesible, siempre y cuando no cedamos el timón ético a sistemas por muy inteligentes que sean, pero carentes de lo humano: la comprensión del otro.

Tal vez la medicina del futuro aspire a la ataraxia tecnológica (esa tranquilidad que buscaban los antiguos griegos), pero no deberíamos confundir serenidad con ingenuidad.

La inteligencia artificial es una herramienta poderosa. Lo inteligente, paradójicamente, es usarla con prudencia.