Ingeniero español con una trayectoria poco habitual, Sergio Gago ha transitado del mundo del entretenimiento digital y el comercio electrónico a los datos financieros y, finalmente, a la gran infraestructura empresarial.
Tras ejercer como máximo responsable de tecnología en compañías como Rakuten y liderar áreas avanzadas de IA y machine learning en Moody’s, hoy ocupa el cargo de CTO en Cloudera, una de las compañías históricas del big data, con clientes que gestionan exabytes de información crítica. Su reto es tan grande como su melena: convertir la fiebre por la IA generativa y los agentes en sistemas productivos, gobernados y confiables, capaces de sobrevivir al experimento y llegar a producción.
“Mi carrera siempre ha sido como CTO y he ido combinando startups y empresas corporativas. Cloudera siempre ha sido un gran referente en el mundo del big data y no hay nada que me haga más feliz que estar en la compañía que tiene las mejores posibilidades de transformar lo que se nos viene encima con la inteligencia artificial”, se presenta ante DISRUPTORES - EL ESPAÑOL.
Puede sonar a frase vacía o incluso baladí, pero nada más lejos de la realidad. Para Gago, el gran cuello de botella de la IA actual no está en la innovación, sino en la industrialización de lo que ya tenemos entre manos con la IA en general y la agéntica en particular.
“Todas las empresas están intentando entrar en inteligencia artificial desde una perspectiva de innovación y experimentación, pero no están trabajando la gobernanza del dato. Una cosa es poner 200 PDFs en un sitio y hacer preguntas. Y otra es introducir un agente que entienda el negocio, los permisos y los riesgos de tu organización”, afirma durante nuestro encuentro en Dubái.
“Los agentes están aquí para quedarse y son una de las fuerzas transformadoras más grandes que ha visto la industria en muchos años, pero la única manera de sacarles partido es creando el pipeline en condiciones”, sostiene.
Para Gago, la industria ha olvidado lecciones que ya estaban aprendidas: “En machine learning llevamos años hablando de observabilidad, gobernanza e interpretabilidad. La IA generativa nos ha hecho saltarnos esa parte”. Los modelos actuales no son tan deterministas, pero sí son medibles. “No te puedo decir cuándo fallará, pero sí que acertará el 98% de las veces. Ese grado de confianza es el que muchas empresas no están implementando en sus agentes”, afirma.
Quizás por ello, una de sus ideas más repetidas es casi una obviedad que rara vez se cumple: “Los datos se deben gobernar, se deben poder mover y se debe acceder a ellos sin duplicarlos”. La realidad, reconoce, es otra: extractos, data warehouses paralelos y shadow data warehouses fuera de control. “No lo gobiernas. Y es muy peligroso”, alerta el ingeniero español.
Y es que la inteligencia artificial generativa, junto a su derivada agéntica, ha amplificado el problema: “Vemos equipos que copian datos en bloque para crear agentes sin ningún control, y luego el agente acaba revelando información confidencial. No es un fallo del modelo, es un fallo de gobernanza”.
Plataformas Frankenstein
En plena carrera por controlar la capa de orquestación de agentes, Sergio Gago se muestra escéptico ante los enfoques cerrados. “El mundo va hacia una orquestación federada de agentes”, defiende. En su visión, cada agente tendrá sentido en su ecosistema, pero deberá coordinarse con los demás. “Un agente de seguros puede vivir en su entorno, pero tiene que poder hablar con datos de Cloudera, de Databricks o de cualquier otro proveedor”.
El valor, subraya, no estará en la inferencia, cada vez más commodity, sino en la orquestación y el acceso seguro al dato: “Lo importante es cómo acceden los agentes a los datos. Un agente tiene que poder acceder a los mismos datos que un humano, con los mismos controles”.
Así pues, uno de los grandes problemas históricos del mundo del dato en opinión de Sergio Gago ha sido la tendencia a construir lo que él mismo denomina plataformas “Frankenstein”. Esto es: arquitecturas levantadas a base de capas, herramientas y decisiones puntuales que, con el tiempo, acaban siendo inmanejables.
“Hemos sido muy brillantes creando combinaciones de tecnologías, pero muchas veces no nos damos cuenta de que la integración de todos esos componentes, junto con la gobernanza que implica, tiene un coste enorme”, explica a este medio. Un coste que no siempre es visible al inicio, pero que termina aflorando cuando esos sistemas se convierten en críticos.
Una complejidad que se ve agravada por la multiplicación de proveedores. No es extraño que una empresa, en la búsqueda del mejor caso de uso, opte por sumar plataformas especializadas para cada necesidad concreta, sin evaluar el impacto global.
“Muchas veces se elige la mejor herramienta para un problema específico, sin pensar en el coste real de combinar todos los elementos”, señala. El resultado es un ecosistema fragmentado, con datos repartidos entre múltiples sistemas, cada uno con sus propias reglas, permisos y modelos de seguridad.
El problema, explica, es que el coste de integración suele superar con creces al de las propias licencias o al almacenamiento de datos. Y por si fuera poco, “no es sólo una cuestión económica, es también un problema de control y de riesgo”.
Desde su punto de vista, la única manera de frenar esta espiral es reducir la complejidad estructural en lugar de seguir añadiendo capas. ¿Cómo?, le preguntamos al instante. Mediante estándares abiertos, interoperabilidad real y una menor dependencia de integraciones ad hoc. “Siempre va a haber distintos proveedores y entornos híbridos, pero si usamos las herramientas adecuadas, al menos podemos hacer ese proceso menos doloroso”.
Cloud e IA
En esa ambivalencia y complejidad inherente a muchas empresas, Sergio Gago defiende una aproximación híbrida en cuanto a la migración a la nube se refiere. Máxime si cabe en el caso de las cargas ligadas a inteligencia artificial.
“Muchos clientes experimentan en la nube con datos de bajo riesgo, pero luego utilizan sus propias GPUs en sus centros de datos para producción. La nube se queda para los picos de demanda”, detalla.
Esa visión se apoya en una idea central: el futuro no entiende de extremos ni de silos exclusivos. “Las empresas van a tener combinaciones de proveedores, datos en distintas nubes, en distintos data centers, y además van a adquirir otras compañías con estructuras diferentes. Ya no hablamos de migraciones cada cinco años, sino de un entorno que evoluciona de forma continua”.
Y, entre todo lo anterior, emerge el concepto de “IA privada” que Cloudera y otros rivales están tratando de potenciar, como un paso intermedio entre los mundos públicos y on premise. Gago es preciso al respecto: “Significa tener soberanía del proceso completo: qué modelo de IA despliegas, cuándo lo actualizas, dónde corre, qué datos entran y salen, y toda la auditoría y trazabilidad”. A eso se suma un nivel adicional, la soberanía tecnológica. “Si un proveedor deja de dar servicio a Europa, tienes que poder cambiar de modelo sin rehacerlo todo”.
Del pasado al futuro
Sergio Gago asume sin complejos ni ambages el peso del pasado de Cloudera, ligado a las bases de datos no estructurados y no tanto a estos universos de la IA.
“Que mucha gente nos siga asociando a Hadoop es incluso positivo”, afirma el CTO. “Nos permite explicar por qué necesitas los dos mundos. Hoy somos una compañía de arquitecturas que despliega motores en Kubernetes, que trabaja en cloud y en centros de datos on premise, y que cree en la interoperabilidad y la opcionalidad por defecto”.
