Publicada

Aunque su nombre no sea tan conocido como el de otros líderes tecnológicos, Sriram Raghavan dirige uno de los centros neurálgicos de la inteligencia artificial empresarial en el mundo. Como vicepresidente de IA en IBM Research, lidera un equipo global de más de 750 científicos e ingenieros encargados de diseñar los cimientos de la inteligencia artificial del futuro.

Una IA que, afirma en entrevista con DISRUPTORES - EL ESPAÑOL, será abierta, fiable, híbrida y orientada a la empresa, muy lejos del hype de los grandes modelos de lenguaje como ChatGPT, Gemini o Grok.

Cabe recordar que IBM fue pionera en inteligencia artificial mucho antes del auge de la generativa. Watson, su emblemático sistema de IA simbólica, ganó notoriedad al derrotar a campeones humanos en concursos de preguntas. Pero el entusiasmo técnico no se tradujo en impacto comercial inmediato y la aventura pasó sin pena ni gloria.

“En la primera generación de IA, el reto era el retorno de la inversión. Cada caso de uso requería su propia curación de datos, sus etiquetas... Era muy difícil escalar”, reconoce nuestra contraparte.

Sería ya con la aparición de los pequeños modelos preentrenados, cuando IBM viera una oportunidad para resolver esa barrera. “Llevábamos un año trabajando internamente en ello antes de lanzar Watsonx en 2023”, explica. Es ahora, según Raghavan, cuando esta evolución permite abordar tanto los retos técnicos como los económicos de aplicar IA a escala empresarial.

¿El fin del culto al volumen?

La aproximación de esta tecnológica es diferente a la de otros grandes contendientes en estas lides. Frente a la obsesión del mercado por contar billones de parámetros sobre los que entrenar sus grandes modelos de lenguaje (LLM), IBM defiende otra métrica: la eficiencia operativa.

“Un modelo es pequeño si puedo ejecutarlo con buena latencia en una sola GPU H100”, argumenta Raghavan. “Aunque tenga 40.000 millones de parámetros, si el diseño permite usar sólo una parte en inferencia, continúa siendo ajustado”.

Para IBM, los llamados small language models (SLM) son ideales para la mayoría de usos reales en empresa. No en vano, son más manejables, personalizables, seguros y fáciles de auditar. “Los grandes modelos pueden servir para experimentar, pero cuando pasas a producción, lo sensato es redimensionar”, afirma.

El concurrido mercado de la IA

La pregunta es inevitable, ante la pujanza de muchos otros nombres en el mercado de la IA: ¿Se reconoce a IBM como actor principal en esta nueva era de la inteligencia artificial?

Raghavan responde con números: “Tenemos un negocio de 6.000 millones de dólares en IA, entre software y consultoría. Nuestros clientes saben lo que hacemos”. Y añade: “Queremos más. Pero no vamos a fingir que somos una empresa de consumo sólo para ganar visibilidad”.

Ante las críticas de que IBM apuesta por los SML porque “perdió el tren” de los grandes modelos fundacionales, Raghavan responde sin rodeos: “No es verdad. Tenemos modelos grandes que usamos internamente para entrenar a otros más pequeños. No se trata de no poder, sino de ser más útiles para nuestros clientes. Lo importante no será qué modelo usaste, sino qué problema resolviste y cómo”.

Además, el auge de los agentes de IA (aplicaciones que combinan múltiples modelos para resolver de forma autónoma tareas complejas) refuerza esta tendencia. “Componiendo soluciones, los modelos pequeños ganan ventaja. No hace falta tener uno que lo haga todo”.

En ese mismo sentido, Raghavan insiste en que los agentes de IA no son una moda, sino una nueva forma de diseñar aplicaciones: “Es como cuando pasamos a las apps web o al software móvil. Cada nueva arquitectura requiere nuevas herramientas, testing, operaciones...”. Por parte de la firma norteamericana, aseguran entrar en esta nueva dimensión con la misma filosofía que lo han hecho hasta ahora con la IA en su conjunto: “Somos agnósticos. No imponemos nuestros modelos ni nuestros agentes. Nos integramos con los de SAP, ServiceNow, Salesforce… porque la realidad empresarial es híbrida y distribuida”.

A su juicio, lo crítico para el despliegue de agentes es contar con sistemas robustos de monitorización, gobernanza y trazabilidad. “El reto ya no es si la IA puede hacerlo, el reto es que puedas confiar en cómo lo hace, auditarlo y escalarlo”.

Los cuatro pilares de la IA

La estrategia de IBM gira en torno a cuatro grandes principios. El primero es su foco en la empresa: “No hacemos esto para el consumidor final. Nos centramos en resolver problemas reales de negocio”, dice con claridad. “En estos entornos, la confianza no es opcional, es una condición de uso”.

El segundo es la apuesta por lo híbrido. Frente a otras plataformas que obligan a llevar los datos a su nube, IBM se compromete a “llevar la IA allí donde estén los datos y las aplicaciones del cliente”. De ahí su integración con Red Hat, incluyendo sus propuestas estrella como OpenShift y Kubernetes.

En tercer lugar, IBM destaca por ser una de las pocas tecnológicas con una gran división de consultoría, lo que le permite “traducir la tecnología en valor de negocio desde las primeras etapas”. Eso a pesar de que, en su momento, el Gigante Azul desinvirtió en esta área para dar vida a una spin-off (Kyndryl) con la que ahora compite y disputa muchos de estos contratos de IA.

Y por último, está su vocación de apertura: “Hemos apostado fuerte por comunidades como PyTorch o VLLM. Queremos que la innovación ocurra también en código abierto, y luego la llevamos al cliente en forma de producto”, afirma Raghavan.

Confluencia con la computación cuántica

Además de la IA, IBM es uno de los gigantes mundiales en computación cuántica. ¿Dónde convergen ambos mundos? Según el directivo, ya se usa IA para optimizar compiladores cuánticos o simular materiales. Pero el futuro está en los algoritmos híbridos, que reparten partes de un mismo problema entre IA, computación clásica y cuántica.

“Ya lo hemos hecho con Riken en Japón, resolviendo problemas de química mediante supercomputación clásica y sistemas cuánticos en paralelo”, detalla. La próxima frontera será integrar IA y cuántica dentro de la misma arquitectura, lo que IBM llama “quantum-centric supercomputing”. Y aunque aún es terreno de laboratorio, la ambición y la dirección de la compañía parecen encaminadas hacia este escenario.

Riesgo y confianza en la IA

“La confianza tiene que estar en todas las capas”, repite como un mantra Sriram Raghavan. En su caso, trabaja con modelos propios donde puede trazar el origen de cada dato, y ofrece herramientas para aplicar guardrails, detección de prompts maliciosos y validación continua de los modelos.

IBM ha lanzado también una solución de automated red-teaming, un sistema de pruebas automatizadas para identificar vulnerabilidades en modelos ajenos. “Cada caso de uso tiene riesgos distintos. No es lo mismo un chatbot para clientes que un sistema interno con acceso limitado”, advierte.