Sriram Raghavan, vicepresidente de IBM Research AI.
Sriram Raghavan (IBM): "Los agentes autónomos no son otra moda, son una arquitectura distinta de la IA"
El responsable de IA en IBM Research defiende el uso de pequeños modelos a la hora de implantarlos en las compañías, frente al enfoque de las grandes plataformas "que fingen ser empresas de consumo sólo para ganar visibilidad".
Más información: Horacio Morell (IBM): "La IA generativa ya da productividades del 50% en algunos procesos"
Aunque su nombre no sea tan conocido como el de otros líderes tecnológicos, Sriram Raghavan dirige uno de los centros neurálgicos de la inteligencia artificial empresarial en el mundo. Como vicepresidente de IA en IBM Research, lidera un equipo global de más de 750 científicos e ingenieros encargados de diseñar los cimientos de la inteligencia artificial del futuro.
Una IA que, afirma en entrevista con DISRUPTORES - EL ESPAÑOL, será abierta, fiable, híbrida y orientada a la empresa, muy lejos del hype de los grandes modelos de lenguaje como ChatGPT, Gemini o Grok.
Cabe recordar que IBM fue pionera en inteligencia artificial mucho antes del auge de la generativa. Watson, su emblemático sistema de IA simbólica, ganó notoriedad al derrotar a campeones humanos en concursos de preguntas. Pero el entusiasmo técnico no se tradujo en impacto comercial inmediato y la aventura pasó sin pena ni gloria.
“En la primera generación de IA, el reto era el retorno de la inversión. Cada caso de uso requería su propia curación de datos, sus etiquetas... Era muy difícil escalar”, reconoce nuestra contraparte.
Sería ya con la aparición de los pequeños modelos preentrenados, cuando IBM viera una oportunidad para resolver esa barrera. “Llevábamos un año trabajando internamente en ello antes de lanzar Watsonx en 2023”, explica. Es ahora, según Raghavan, cuando esta evolución permite abordar tanto los retos técnicos como los económicos de aplicar IA a escala empresarial.
¿El fin del culto al volumen?
La aproximación de esta tecnológica es diferente a la de otros grandes contendientes en estas lides. Frente a la obsesión del mercado por contar billones de parámetros sobre los que entrenar sus grandes modelos de lenguaje (LLM), IBM defiende otra métrica: la eficiencia operativa.
“Un modelo es pequeño si puedo ejecutarlo con buena latencia en una sola GPU H100”, argumenta Raghavan. “Aunque tenga 40.000 millones de parámetros, si el diseño permite usar sólo una parte en inferencia, continúa siendo ajustado”.
Para IBM, los llamados small language models (SLM) son ideales para la mayoría de usos reales en empresa. No en vano, son más manejables, personalizables, seguros y fáciles de auditar. “Los grandes modelos pueden servir para experimentar, pero cuando pasas a producción, lo sensato es redimensionar”, afirma.
Ante las críticas de que IBM apuesta por los SML porque “perdió el tren” de los grandes modelos fundacionales, Raghavan responde sin rodeos: “No es verdad. Tenemos modelos grandes que usamos internamente para entrenar a otros más pequeños. No se trata de no poder, sino de ser más útiles para nuestros clientes. Lo importante no será qué modelo usaste, sino qué problema resolviste y cómo”.
Además, el auge de los agentes de IA (aplicaciones que combinan múltiples modelos para resolver de forma autónoma tareas complejas) refuerza esta tendencia. “Componiendo soluciones, los modelos pequeños ganan ventaja. No hace falta tener uno que lo haga todo”.
En ese mismo sentido, Raghavan insiste en que los agentes de IA no son una moda, sino una nueva forma de diseñar aplicaciones: “Es como cuando pasamos a las apps web o al software móvil. Cada nueva arquitectura requiere nuevas herramientas, testing, operaciones...”. Por parte de la firma norteamericana, aseguran entrar en esta nueva dimensión con la misma filosofía que lo han hecho hasta ahora con la IA en su conjunto: “Somos agnósticos. No imponemos nuestros modelos ni nuestros agentes. Nos integramos con los de SAP, ServiceNow, Salesforce… porque la realidad empresarial es híbrida y distribuida”.
A su juicio, lo crítico para el despliegue de agentes es contar con sistemas robustos de monitorización, gobernanza y trazabilidad. “El reto ya no es si la IA puede hacerlo, el reto es que puedas confiar en cómo lo hace, auditarlo y escalarlo”.
Los cuatro pilares de la IA
La estrategia de IBM gira en torno a cuatro grandes principios. El primero es su foco en la empresa: “No hacemos esto para el consumidor final. Nos centramos en resolver problemas reales de negocio”, dice con claridad. “En estos entornos, la confianza no es opcional, es una condición de uso”.
El segundo es la apuesta por lo híbrido. Frente a otras plataformas que obligan a llevar los datos a su nube, IBM se compromete a “llevar la IA allí donde estén los datos y las aplicaciones del cliente”. De ahí su integración con Red Hat, incluyendo sus propuestas estrella como OpenShift y Kubernetes.
En tercer lugar, IBM destaca por ser una de las pocas tecnológicas con una gran división de consultoría, lo que le permite “traducir la tecnología en valor de negocio desde las primeras etapas”. Eso a pesar de que, en su momento, el Gigante Azul desinvirtió en esta área para dar vida a una spin-off (Kyndryl) con la que ahora compite y disputa muchos de estos contratos de IA.
Y por último, está su vocación de apertura: “Hemos apostado fuerte por comunidades como PyTorch o VLLM. Queremos que la innovación ocurra también en código abierto, y luego la llevamos al cliente en forma de producto”, afirma Raghavan.
Confluencia con la computación cuántica
Además de la IA, IBM es uno de los gigantes mundiales en computación cuántica. ¿Dónde convergen ambos mundos? Según el directivo, ya se usa IA para optimizar compiladores cuánticos o simular materiales. Pero el futuro está en los algoritmos híbridos, que reparten partes de un mismo problema entre IA, computación clásica y cuántica.
“Ya lo hemos hecho con Riken en Japón, resolviendo problemas de química mediante supercomputación clásica y sistemas cuánticos en paralelo”, detalla. La próxima frontera será integrar IA y cuántica dentro de la misma arquitectura, lo que IBM llama “quantum-centric supercomputing”. Y aunque aún es terreno de laboratorio, la ambición y la dirección de la compañía parecen encaminadas hacia este escenario.
Riesgo y confianza en la IA
“La confianza tiene que estar en todas las capas”, repite como un mantra Sriram Raghavan. En su caso, trabaja con modelos propios donde puede trazar el origen de cada dato, y ofrece herramientas para aplicar guardrails, detección de prompts maliciosos y validación continua de los modelos.
IBM ha lanzado también una solución de automated red-teaming, un sistema de pruebas automatizadas para identificar vulnerabilidades en modelos ajenos. “Cada caso de uso tiene riesgos distintos. No es lo mismo un chatbot para clientes que un sistema interno con acceso limitado”, advierte.