Prueba de oncología.

Prueba de oncología.

Observatorio de la sanidad

La UE obligará a que hospitales y centros de salud cuenten con un responsable que controle los sistemas de IA de alto riesgo

Además, la Comisión está trabajando en el desarrollo de una serie de guías para conocer cuáles serán las funciones de esta figura. 

Más información:Bruselas plantea una pausa de 16 meses en la ley de IA y relajar las normas de protección de datos tras la presión de Trump

Publicada

Las claves

La Unión Europea exigirá que hospitales y centros de salud designen un responsable para supervisar los sistemas de inteligencia artificial (IA) de alto riesgo.

Este responsable deberá garantizar que las herramientas de IA cumplan con la normativa, sean seguras, éticas y supervisar su correcta implementación en el entorno sanitario.

Entre los desafíos detectados en el uso de IA en sanidad figuran los sesgos en los datos, problemas de ciberseguridad, falta de transparencia y explicabilidad, y la necesidad de mayor capacitación de los especialistas.

Europa está desarrollando guías específicas para definir las obligaciones de estos responsables y la regulación de los sistemas de IA de alto riesgo se aplicará de forma escalonada.

El reglamento de Inteligencia Artificial de la Unión Europea contempla la incorporación de una figura intermedia (entre el fabricante y el profesional o el paciente) en los centros sanitarios. De esta manera, los hospitales estarán obligados a integrar a un responsable que controle los sistemas de IA de alto riesgo en el entorno de trabajo. 

¿Cuál será su función? Pues "deberá entender cuál es su nivel de autoridad, si la herramienta cumple con todas las regulaciones y supervisar que su implementación sea segura y ética", ha precisado Margarita Martín López, jefa de Área de Control de Mercado de Productos Sanitarios DIV de la Agencia Española de Medicamentos y Productos Sanitarios (Aemps) este miércoles en unas jornadas sobre IA organizadas por Fenin. 

Así, ha señalado que Europa está trabajando en el desarrollo de una serie de guías para saber cuáles son las obligaciones de este responsable. "Su figura tendrá un gran peso en el desarrollo de estos productos sanitarios".

Desafíos

A lo largo de su intervención, López ha explicado que el desarrollo de estos sistemas todavía afronta unos riesgos específicos.

Entre ellos, se encuentran los sesgos en los datos de entrenamiento (por ejemplo, si esa herramienta se fabrica en Alemania y se prueba con esa población y luego si se implementa en España se pueden encontrar grandes diferencias) y los problemas de los ciberataques.

Por otro lado, hay otros desafíos como en la transparencia de datos de entrenamiento (que los tiene que facilitar el fabricante del producto), en la falta de explicabilidad y de capacitación de los especialistas.

Y por último, en las propias alucinaciones y desaprendizaje del sistema, "que ya se han observado en la práctica", ha asegurado López.

Marco normativo

Cabe recordar que la norma fue aprobada en diciembre de 2023, entró en vigor en agosto de 2024, pero se ha empezado a aplicar de forma escalonada. Para los sistemas de alto riesgo (como muchos de los usados en sanidad) se fijó la fecha de agosto de 2026.

No obstante, el pasado miércoles 19 de noviembre, hubo un cambio de 180 grados.

En un "ómnibus digital", que aún deberá ser debatido y votado en los países europeos, la Comisión de Ursula von der Leyen propuso retrasar a diciembre de 2027, en ​lugar de agosto de 2026, las normas más estrictas de la UE sobre ‌el uso de la IA en una serie de ámbitos considerados de alto riesgo.

Por ello, "parece que la aplicación de ese marco normativo se va a retrasar", ha matizado López. 

Cabe matizar que los sistemas de alto riesgo son aquellos destinados a la selección automatizada de personal, infraestructuras críticas, evaluación de créditos o seguros o reconocimiento facial en espacios públicos.