La IA agéntica se perfila como una evolución tecnológica destinada a acelerar la capacidad de las compañías para automatizar sus procesos y optimizar su productividad, aunque también vendrá acompañada de un escenario más complejo.

Los agentes de inteligencia artificial, capaces de tomar decisiones y de actuar sin una continua supervisión humana, plantean desafíos inéditos en materia ética y de transparencia. Un escenario que exige una transformación profunda de los modelos de gobernanza tradicionales, así como un refuerzo de los mecanismos de supervisión y seguridad.

En este contexto, surge la figura de los agentes guardianes. Tal y como afirma la consultora Gartner, en los próximos cinco años estas soluciones representarán alrededor del 15% del sector de la IA agéntica y serán imprescindibles para garantizar interacciones confiables y seguras con esta tecnología.

Una cuestión de confianza

La confianza es un factor clave en el desarrollo de herramientas de inteligencia artificial. Sin embargo, a día de hoy, pocas organizaciones se sienten realmente seguras al desplegar estas soluciones teniendo en cuenta las regulaciones actuales.

Esta circunstancia pone de manifiesto la necesidad de contar con marcos más robustos y específicos, junto con metodologías rigurosas que ayuden a generar esa confianza empresarial. A pesar de ello, muchas compañías aún carecen de estructuras integrales para gestionar IA generativa de forma efectiva.

Además, la paralización de proyectos por problemas relacionados con la gobernanza es una preocupación creciente que está afectando a gran parte de las compañías españolas. Los principales obstáculos no son técnicos, sino organizativos: falta de talento especializado, deficiente calidad de los datos o estructuras inadecuadas para abordar proyectos de IA de forma sistemática.

La gobernanza de datos debe experimentar una amplia transformación, pasando de visiones reactivas a un enfoque proactivo que contemple las consideraciones éticas desde la fase de diseño de los proyectos: la denominada "gobernanza by design".

Esto quiere decir que hay que tener presentes la transparencia y la privacidad durante todo el ciclo de vida del sistema.

Las organizaciones también deberán programar auditorías, realizar un monitoreo en tiempo real e implementar herramientas que detecten posibles amenazas de forma automática. Es en este último punto donde adquieren especial relevancia los agentes guardianes.

Nuevos protagonistas en la IA agéntica

Los agentes guardianes están diseñados específicamente para garantizar que las interacciones con la inteligencia artificial sean seguras y confiables. Su función es controlar y asegurar un comportamiento ético en los agentes que forman parte de los sistemas de IA.

En otras palabras, actúan como supervisores de los otros agentes encargados de tareas operativas como el análisis de informes, la atención de solicitudes, la generación de respuestas, etc.

Su principal ventaja es su capacidad para combinar la toma de decisiones en tiempo real con una gestión de riesgos eficaz. Debido a la proliferación de sistemas multi agente y el consiguiente aumento de los riesgos en seguridad, las herramientas de gobernanza automatizadas se vuelven indispensables para preservar la seguridad, fiabilidad y confianza en los ecosistemas de IA.

Al implementar agentes guardianes, es fundamental dotarlos de herramientas que les permitan verificar y evaluar las acciones del resto de los agentes, asegurando su rigor y precisión.

También se requiere una observabilidad continua que permita supervisar su comportamiento, realizar controles de seguridad, detectar anomalías o resultados indeseados, e intervenir cuando sea necesario para mitigar posibles riesgos.

Otras cuestiones clave son el análisis del comportamiento del modelo, para identificar por qué toma determinadas decisiones, así como la trazabilidad de los datos. Especial importancia cobran en este sentido los datos sintéticos, cada vez más utilizados en el entrenamiento de la IA.

A ellas se unen la evaluación de sesgos para identificar posibles alucinaciones en la IA y la simulación de escenarios para predecir cómo se comporta un agente ante determinadas situaciones.

La IA agéntica representa una gran oportunidad para optimizar la productividad de las organizaciones, pero su potencial solo podrá desplegarse si va acompañado de sistemas de gobernanza sólidos y dinámicos. En este nuevo paradigma, los agentes guardianes se convierten en piezas clave: supervisores autónomos que velarán por la ética, la seguridad y la trazabilidad en entornos complejos.

A medida que la inteligencia artificial evoluciona hacia formas más autónomas, integrar estos mecanismos no será una opción, sino una condición indispensable para construir una IA en la que realmente podamos confiar.

*** Sergio Rodríguez es fundador y CTO de PUEDATA.