Imagen de una colonoscopia a un paciente.

Imagen de una colonoscopia a un paciente. Europa Press

Salud

El abuso de la IA resta habilidades a los endoscopistas, según un estudio: "Hay que evitar que se automaticen"

Un estudio afirma que el uso de esta tecnología puede reducir hasta un 20% las habilidades de los profesionales para detectar tumores en el colon.

Más información: "No es rentable": los médicos desconfían de ampliar el cribado de cáncer de colon pese a su aumento en jóvenes

Publicada
Actualizada

La inteligencia artificial (IA) es una herramienta que se ha ido implantando en la medicina en los últimos años con el objetivo de agilizar y facilitar ciertas prácticas. Esta inclusión va desde tareas administrativas hasta la cirugía, pasando por algunas pruebas médicas.

Esta tecnología puede ser de gran ayuda para hacer más seguras algunas operaciones o para reducir las listas de espera o los tiempos de diagnóstico. Sin embargo, puede que no sea todo tan bueno como parece, según acaba de plantear un equipo de investigadores.

Su estudio, publicado este martes en la revista The Lancet Gastroenterology & Hepatology, llama la atención sobre el uso de la IA para realizar colonoscopias. Han visto que los profesionales experimentados pueden reducir su eficacia de diagnóstico una vez que empiezan a utilizarla.

Los datos que han recabado muestran que estos sanitarios llegan a disminuir un 20% la detección de pólipos precancerosos en el colon cuando volvían a realizar colonoscopias sin asistencia de la IA, una vez que se habían acostumbrado a tener esta herramienta como rutinaria.

Este es el primer estudio que sugiere que la implementación de IA podría suponer una reducción en la capacidad de los profesionales médicos e impactar en resultados de salud que son importantes para los pacientes.

Los científicos exponen en el trabajo que esta disminución de la capacidad de detección podría deberse a una tendencia de estos profesionales a "confiar excesivamente en las recomendaciones de la IA". Esto, continúan, puede provocar que estén menos concentrados a la hora de tomar decisiones si esta asistencia.

Venet Osmani, catedrático de IA Clínica y Aprendizaje Automático en la Queen Mary University of London (Reino Unido), advierte de que los resultados del estudio podrían estar influidos por otros factores.

Por ejemplo, una vez introducida esta herramienta en esta práctica, casi se duplicó el número de pruebas realizadas, ha afirmado en declaraciones a Science Media Center (SMC) en Reino Unido.

Las colonoscopias pasaron de 795 a casi 1.400, por lo que el experto cree que pudo ser ese aumento de la carga de trabajo lo que llevara a una reducción de la detección. "Un calendario más intenso podría significar que los médicos tienen menos tiempo o estén más fatigados, lo que afectaría a su rendimiento".

Otros factores que menciona Osmani son los cambios en los flujos de trabajo o una redistribución de los recursos que suelen producirse cuando se introduce la IA en la práctica clínica. "Estos cambios organizativos, que el estudio no midió, también podrían estar afectando a las tasas de detección".

Por otro lado, Omer F Ahmad, experto de la unidad de Cirugía y Ciencias Intervencionistas en la University College London, asegura en un comentario publicado en la misma revista que este hallazgo "modera el entusiasmo actual por la rápida adopción de tecnologías basadas en IA".

También subraya que estudios como este resaltan la importancia de considerar con sumo cuidado las consecuencias clínicas no deseadas que pueden tener estas prácticas.

Asimismo, tanto Ahmad como los autores, defienden la necesidad de realizar más investigaciones y monitorizar a los profesionales tras la implantación de esta tecnología cada vez más habitual.

Agustín Albillos, jefe de servicio de la unidad de aparato digestivo del Hospital Ramón y Cajal (Madrid), está de acuerdo con esa afirmación, aunque sostiene que todavía no se puede asegurar que esa disminución en la detección de crecimientos precancerosos sea culpa de la IA.

La cuestión es controvertida dentro de la medicina, ya que la literatura científica sobre ello todavía es contradictoria. Hay otros estudios que afirman que esta tecnología no influye en las habilidades de los profesionales.

Aun así, el especialista reconoce que no es el único ámbito de la medicina en el que ocurre. Ya se ha visto que también puede disminuir la capacidad de los radiólogos para interpretar radiografías, recuerda.

Una cuestión ética

Allan Tucker, catedrático de Inteligencia Artificial en el departamento de Ciencias de la Computación de la Universidad Brunel de Londres, también ha hablado sobre el estudio con SMC Reino Unido. Defiende que esta tecnología puede "ejercer más presión" que otras sobre una persona a la hora de tomar decisiones.

El catedrático hipotetiza que algunos profesionales podrían sentirse presionados a "estar de acuerdo" con la nueva tecnología. "Imaginemos que se comete un error y el experto humano tiene que defender el haber anulado una decisión de la IA; podría parecerle menos arriesgado aceptarla".

Tucker considera el artículo "especialmente interesante". No niega que esta tecnología sigue detectando, en general, un mayor número de tumores malignos. Sin embargo, pone el foco en la cuestión ética si la sociedad llega a confiar más en ella que en los humanos.

Todo el mundo espera que siempre haya una persona vigilando las decisiones de la IA, pero si los expertos se están esforzando menos en sus propias decisiones por la introducción de estas herramientas, ahí se produce un conflicto. "Puede ser problemático", advierte el catedrático.

Albillos sostiene que, aunque la IA está lejos de implantarse en España de forma rutinaria, sí que hay que trabajar para desarrollar sistemas de formación específica que puedan evitar problemas como el que plantea esta investigación. "Hay que evitar que los profesionales se automaticen".