El titular de 'La Serendipia' de esta semana juega con una pretendida ambigüedad, he de admitirlo. Porque la ubicación de la inteligencia artificial descansa sobre dos localizaciones distintas y, al mismo tiempo, interrelacionadas. La primera, el país donde residen estos modelos y los datos de los que se alimenten (y aquí podríamos entrar en los tan manidos como inconclusos debates sobre la autonomía estratégica de Europa, por ejemplo). El segundo factor apela a qué tipo de despliegue -en la nube o en las propias instancias de las empresas- predomina en esta nueva generación de la tecnología.
Hasta ahora, la propuesta estándar siempre ha sido que cualquier implementación de la inteligencia artificial (especialmente en su capa generativa) ha de producirse en la nube. Los propios colosos del sector -desde OpenAI y Microsoft a Google o AWS- han promovido esta concepción. Y razones no les faltan en su argumentario: la naturaleza cambiante de esta tecnología en pañales y su exigente consumo de recursos hacen inviable su despliegue on-premise al uso.
Sin embargo, en paralelo a este discurso, nos encontramos con un descontento creciente en este viaje a la nube y una repatriación de cargas de trabajo que ya habían volado a la nube y que, ahora, vuelven a los centros de datos propios de las compañías.
Gartner acaba de publicar un informe según el cual el 25% de las organizaciones se verán frustradas en su adopción de la nube para 2028. Más acusada es la cifra en el caso de despliegues multicloud -con varios hiperescalares con diferentes asignaciones-, donde el 50% de las empresas no obtendrán los resultados esperados para final de la década.
Podríamos pensar que hablamos de cargas que se subieron a la nube de forma apresurada y que nunca deberían haber emprendido ese rumbo, como el almacenamiento de datos históricos (mucha de la información que en sectores regulados, como la banca, están obligados a mantener pero a la que nunca se accede). Empero, la realidad nos devuelve a que la IA no es una excepción en estas lides.
Siguiendo con las cifras de estos analistas, el 50% de los recursos de computación en la nube se dedicarán a cargas de trabajo de inteligencia artificial para 2029, frente al 10% actual. Es obligado deducir, por tanto, que muchas de las fuentes de frustración y objetivos incumplidos en la migración al 'cloud' tendrán su causa directa en proyectos de IA fallidos.
¿Por qué estamos en este escenario tan extraño? Gartner apela a algunos elementos claros y contundentes: expectativas poco realistas, implementaciones deficientes y costes disparados. Sus expertos mantienen que las organizaciones no pueden darse el lujo de arruinar sus estrategias de adopción 'cloud' en un momento tan crítico como el actual, pero piden que analicen bien qué proveedores, en qué condiciones y bajo qué estrategia desplegar la IA en estos entornos.
Especialmente reseñable es que uno de los factores que más afectan al éxito o fracaso de un proyecto de migración a la nube es la interoperabilidad entre distintos sistemas y entornos de los hiperescalares. No es osado pensar que estas problemáticas se van a incrementar notoriamente con la llegada de la IA, ya no hablemos de los agentes, que requerirán una simbiosis cada vez más perfecta para poder ofrecer resultados tangibles. Hasta que este punto esté bien resuelto, seguiremos con esta misma conversación.
Que nadie se tome esta humilde columna de opinión como un arrebato contra la nube, o como una apelación a que la IA deba desplegarse en local. Nada más lejos de la realidad: la combinación de ambos paradigmas es la mejor sobre el papel, pero debemos asegurarnos de bajar de las musas al teatro y asegurarnos de que la ejecución no lastre las buenas intenciones de los CIO...