Luis Pérez Pau, CISO del Grupo Ribera, y Laura Prats, Cyber Risk manager de Relyens España.
Los altos riesgos obligan a que inteligencia artificial y ciberseguridad vayan de la mano en sanidad
Luis Pérez Pau alerta de que la legislación no evoluciona al mismo ritmo que la inteligencia artificial.
Más información: Rueda (MedTech Europe): "La UE trabaja en un proyecto de ciberseguridad para gestionar crisis sanitarias"
Laura Prats, Cyber Risk manager de Relyens en España es clara. "La inteligencia artificial protagoniza los proyectos estrella en sanidad. Todo el mundo habla de ellos y de los beneficios que van a traer... pero también riesgos". De sesgo, de entrenamiento, de tratamientos de datos... Pero también tecnológicos, como un hackeo que lleve a la suspensión de un servicio sanitario.
Prats pone como ejemplo un ciber asalto al triaje de un servicio de urgencias apoyado en inteligencia artificial, que llevaría a un desastre organizativo. O el impacto que puede tener en diagnóstico por imagen.
Por ello, la inteligencia artificial (su implantación y evolución) tiene que ir de la mano de la ciberseguridad y de una revisión constante de la misma.
Luis Pérez Pau, CISO del Grupo Ribera
Luis Pérez Pau, director de Seguridad de la Información de Ribera, coincide con estas valoraciones. Y ha indicado que "Ribera tomó decisiones como la creación de una empresa tecnológica propia y el impulso y la apuesta por la IA ha sido una derivada".
Alerta, también, de que un ciberataque a la inteligencia artificial, si ya está implantada en el sistema sanitario, "puede afectar a la continuidad del servicio". Por ello, es necesario contar con planes de respuesta.
Prats y Pérez Pau han abordado estas cuestiones durante su intervención en el VI Simposio del Observatorio de la Sanidad de EL ESPAÑOL e Invertia. Ambos han coincidido en que hay una cantidad de reglamentos muy elevada sobre la inteligencia artificial y su uso.
"Navegar en este panorama normativo es ahora más difícil que nunca. Es muy probable que cuando parte de los procesos críticos de la compañía dependan de la inteligencia artificial, haya que crear una figura para estas responsabilidades", añade Pérez Pau.
Sin embargo, dicha regulación tiende a quedarse atrasada por la rápida evolución que tiene esta tecnología. "La normativa de análisis de riesgos se queda corta, igual que la de ciberseguridad. Lamentablemente, la inteligencia artificial supera muy rápidamente y con creces nuestra velocidad para adaptar las regulaciones".
Y es que, como dice Prats, "la inteligencia artificial no es como un producto sanitario que nace y no se altera. Evoluciona y tenemos que tener garantías de que es seguro":
En este caso, "la gobernanza", ha apuntado Pérez Pau, "es esencial", con copias de acceso a la versión primigenia de la correspondiente inteligencia artificial y los convenientes análisis de riesgos.
"No podemos tener una confianza ciega en ella", ha añadido. Y ha lanzado un aviso para navegantes: "Todo lo que se comparta con una inteligencia artificial no corporativa por Internet será información que podría acabar difundiéndose de forma pública". Por ello, "no se puede utilizar bodigo fuente de la propia compañía ni información confidencial".