Un robot estrecha la mano de un paciente en una imagen generada por inteligencia artificial.

Un robot estrecha la mano de un paciente en una imagen generada por inteligencia artificial.

Salud

ChatGPT ya muestra más 'humanidad' que muchos médicos: la lección sobre el trato a los pacientes

Respondiendo a consultas médicas en un foro de internet, la inteligencia artificial fue mejor valorada en calidad y cercanía, según un nuevo estudio.

5 mayo, 2023 04:09

El imparable avance de la inteligencia artificial está sacudiendo los cimientos de cada vez más áreas de la medicina, pero había un aspecto en que las personas parecían que iban a ganar siempre, por muy de Perogrullo que parezca: lo humano. La sorpresa ha llegado cuando, a la hora evaluar la empatía de las respuestas de ChatGPT en un foro médico, la IA ha demostrado ser muy superior a los médicos reales que contestaban en ese foro.

Se trata de un pequeño estudio que no se puede generalizar a la atención médica ni a la relación entre el médico y su paciente, pero supone un toque de atención sobre la pérdida de humanidad en las consultas.

Los propios autores del trabajo, procedentes de la Universidad de California en San Diego, son conscientes de que "la rápida expansión de la atención virtual ha causado un aumento de mensajes de los pacientes, concomitante con más trabajo y desgaste entre los profesionales sanitarios", por lo que ven la IA como una ayuda, no como un sustituto de la atención médica.

[Uno de los padres de la inteligencia artificial abandona Google y avisa de sus grandes riesgos]

El caso es que han acudido a uno de los foros más grandes de internet, Reddit. En un subforo en el que los usuarios preguntan por sus dolencias y médicos verificados responden, los investigadores seleccionaron al azar 195 cuestiones.

Estas fueron contestadas por médicos y por ChatGPT (la versión 3, lanzada en noviembre pasado; este año ha aparecido la 4). Las respuestas, convenientemente anonimizadas, fueron evaluadas por una tríada de profesionales sanitarios, que medían la calidad de la información recibida y la empatía mostrada.

Los resultados son elocuentes: en el 78,6% de las evaluaciones, ChatGPT sale ganando. La respuesta, de media, es más larga (211 palabras frente a 52 de los médicos) y de mayor calidad: en el 78,5% de los casos fue evaluada como buena o muy buena, frente al 22,1% de las proporcionadas por médicos.

[Crean una IA que lee el pensamiento y lo transcribe sin necesidad de implantes cerebrales]

Sin embargo, la mayor diferencia estaba en la empatía mostrada en la respuesta. La IA mostraba casi 10 veces más empatía que los médicos: el 45,1% de las contestaciones de ChatGPT mostraban un alto nivel en este indicador, por tan solo el 4,6% de las de los médicos.

Un ejemplo. Una de las preguntas seleccionadas hablaba de rastros de sangre encontrados al limpiarse tras defecar. La respuesta del médico: "Podría ser un quiste pilonidal infectado. Debe ver a su proveedor de atención primaria o a un centro de atención urgente".

La respuesta de ChatGPT es muy extensa para reproducirla por entero, pero lo primero que hace es avisar de que "no es normal tener un dolor persistente, hinchazón y sangrado en el área alrededor del coxis", advirtiendo de que es importante acudir a un doctor ya que "no es probable que estos síntomas se resolverán por sí solos sin atención médica".

A continuación, enumera las posibles causas de esos síntomas, repite que es importante que los vea un profesional sanitario, "que realizará un examen físico y puede recomendar pruebas adicionales", y, mientras tanto, recomienda a la persona que no esté sentada por largo tiempo y que no haga fuerza durante los movimientos intestinales, así como aconseja aplicar frío al área para reducir la hinchazón y el dolor.

El 67% de los evaluadores escogió la respuesta del chatbot como la mejor, calificando su calidad de un 4 sobre 5 frente al 3 de la del médico, y con un 2 sobre 5 la empatía, frente al 1,33 del médico. En otras ocasiones, las diferencias son abismales.

La empatía necesita tiempo

"Por supuesto, los doctores tienen menos tiempo disponible y las máquinas pueden generar tales respuestas largas en segundos", señala el médico y divulgador de nuevas tecnologías en la salud Eric Topol en un artículo, señalando la oportunidad que supone la IA para restaurar la relación médico-paciente, "que ha pasado por una erosión considerable a lo largo de las décadas".

Algo similar apunta Joan Carles March, médico profesor de la Escuela Andaluza de Salud Pública, que se muestra, sin embargo, con la escasa importancia que dan los clínicos a las soft skills, esas habilidades que, pese a no ser imprescindibles, engrasan la relación entre el médico y su paciente para beneficio de ambos.

"Conseguir una relación empática favorece que los pacientes cuenten a los médicos cuestiones más íntimas", señala. "Parece que solo es importante –para algunos médicos– hacer un buen diagnóstico y una buena terapéutica, pero para lograrlo, para generar una buena adherencia a los tratamientos, etc. necesitamos habilidades de comunicación y escucha".

[Expertos piden pausar el desarrollo de la inteligencia artificial alarmados por los avances del sector]

A pesar de que 'humanización' es una de las palabras de moda en la medicina de las últimas décadas, el especialista en Salud Pública lamenta que apenas haya formación sobre empatía y que esta no forme parte de los currículos profesionales.

"Hay profesionales que tienen habilidades naturales, gente con mucha capacidad empática, que intenta ponerse al lado del paciente, intenta conocer mejor lo que le pasa, valorar las situaciones que le dificultan el tratamiento, etc. Pero hay gente que no cree necesario tener esas habilidades, le parece que lo importante es lo otro [el hacer un buen diagnóstico y tratamiento]. Eso es la base, pero sin la altura [la empatía] nunca se darán las claves adecuadas para hacer el buen tratamiento".

El estudio ha generado un revuelo en las redes sociales de los médicos. El grupo de bioética de la Sociedad Española de Medicina Interna (SEMI) ha realizado un análisis crítico del estudio, valorando que las evaluaciones fueron realizadas por médicos, no por los pacientes, y advirtiendo que los autores tienen conflictos de interés, pues participan en empresas que trabajan con la inteligencia artificial.

"Preguntas: si la empatía supone ponerse en el lugar del paciente, conocer al paciente y su contexto, ¿puede evaluarlo como paciente quien no es paciente? ¿Puede un tercero evaluar la empatía en una relación clínica? ¿Puede haber empatía en relaciones enajenadas de la condición humana?", apuntan en Twitter.

"Al médico no lo va a sustituir la inteligencia artificial", reflexiona Joan Carles March, "pero el hecho de que esta pueda ser más empática en sus respuestas nos debe de hacer 'click': es un llamamiento a los profesionales. Médicos, ¡trabajen más esos temas!"

March afirma que la empatía se puede y se debe ejercitar, debe "formar parte del currículum oficial y tener entrenamiento en habilidades para que una máquina no dé mejores resultados que una persona. La personalización es fundamental en la relación médico-paciente, y eso solo lo puede hacer una persona. La inteligencia artificial ayuda, pero no la sustituirá", concluye.