Hablar del impacto de la inteligencia artificial agéntica resulta complicado, estando como estamos en los anales de su desarrollo (y ya no hablemos de su implementación en las empresas). Hay gurús de toda índole promulgando la enésima revolución tecnológica, casi al nivel de un cambio trascendental en la naturaleza del trabajo y la configuración social. Otros, incluso directivos involucrados en el devenir de estos sistemas, enfrían las previsiones al establecer plazos de hasta una década para ver su verdadero calado.

Sea como fuere, lo cierto es que estamos metidos de lleno en este asunto y las grandes enseñas del sector no van a dejar escapar la vía de entrada para la automatización y la reducción de costes en el tejido productivo global. Por ahora, son pocos los ejemplos a escala que podemos encontrar en el horizonte (en España, apenas hay ejemplos contados como el de Repsol). Pero si las miras están puestas en sus beneficios económicos y en sus riesgos laborales o sociales, cuesta encontrar quien hable también de los riesgos asociados a la ciberseguridad en la era agéntica.

Vayan por delante algunas previsiones al respecto. Según Palo Alto Networks, se estima que los agentes autónomos superarán el próximo año a los humanos en una proporción de 82 a 1. Es una estimación difícil de creer teniendo en cuenta la escasa adopción actual de estos sistemas, más allá de pruebas piloto. IDC junto a Microsoft, presentan cifras algo más realistas: 1.300 millones de agentes en producción para 2028, lo que supone 0,37 agentes por trabajador de carne y hueso (teniendo en cuenta los 3.500 millones que componen la población activa en todo el mundo).

Tanto si nos creemos unos números, u otros, o ninguno, lo innegable es que gobernar y securizar unos entornos corporativos plagados de agentes autónomos no va a ser sencillo. Si primero fue la destrucción del clásico perímetro de ciberseguridad con la llegada de la nube y del teletrabajo, ahora nos enfrentamos a controlar identidades y accesos detrás de los que no hay humanos, sino sistemas automatizados.

"Tres de cada cuatro proyectos de IA agéntica plantean un riesgo grave de seguridad, principalmente por falta de gobernanza", detallaba esta semana Marc Sarrias, responsable de Palo Alto para España y Portugal. "Una sola orden falsificada puede desencadenar una cascada de acciones automatizadas, erosionando la confianza". "Pueden colocarse elementos maliciosos en los propios agentes, en los datos sobre los que trabajan o en todo el proceso alrededor del agente", añadía a su vez Jordi Botifoll, vicepresidente de la firma para EMEA Sur y Mercados Emergentes.

Prompt injections, insiders autonómos con acceso a las "llaves del reino" y potencial objetivo de los ciberatacantes, puertas ocultas con altos privilegios... Hay muchas formas de comprometer a los agentes de IA, la evolución natural de una inteligencia artificial que tampoco está precisamente bien securizada. Al respecto: un estudio de Stanford cifraba en apenas un 6% el número de organizaciones que aplica actualmente marcos avanzados de ciberseguridad para la inteligencia artificial.

La respuesta a esta amenaza no es que esté del todo clara. Dependerá, según afirman los expertos, de multitud de factores: desde una mayor correlación entre el trabajo de los CISO y de los analistas de datos, a una gobernanza real de los datos subyacentes o un control de identidades que incluya de forma efectiva a los agentes. También del propio trabajo de las firmas creadoras de estos agentes (cuyos guardaraíles son la primera frontera de defensa, aunque también la más vulnerable) y de los proveedores de ciberseguridad que consigan adaptarse a los nuevos tiempos.

Sin duda, un tema que va a dar mucho que hablar en los próximos meses, se confirmen unas previsiones de adopción u otras. Y más que pertinente en estos momentos, en la antesala del Día Internacional de la Ciberseguridad que se celebra este domingo.