
Varios logos de aplicaciones de inteligencia artificial en un teléfono móvil. Imagen: Solen Feyissa / Unsplash.
Los modelos cerrados de IA reciben el doble de financiación que los abiertos: ¿será un nuevo negocio de élites?
Desde 2020, OpenAI o Anthropic han recibido 37.500 millones de dólares de Microsoft, Google o Amazon. Mientras tanto, los modelos abiertos de Mistral AI, Hugging Face o X AI han recibido 14.900 millones.
Más información: El fin de los LLM como ChatGPT está cerca, así será la inteligencia artificial que triunfará en los próximos años
Vivir el desarrollo incipiente de una tecnología de vanguardia como la inteligencia artificial supone enfrentarse a dilemas y visiones contrapuestas de cómo debe construirse esta tecnología y cuál ha de ser su aproximación al mercado. Y quizás la más importante sea la que atañe a si se le abren las puertas o se echa el cerrojo.
Vaya por delante, la siguiente aclaración: las propuestas de código cerrado, lideradas por gigantes como Google y OpenAI, mantienen en secreto elementos clave como sus arquitecturas, protegiendo su propiedad intelectual y buscando ventajas comerciales. En cambio, las iniciativas de código abierto, impulsadas por empresas como Meta con su modelo Llama 3.1, hacen disponibles algunos de estos elementos para fomentar la investigación y la personalización por parte de terceros.
La disparidad no solo responde a esa diferencia de accesibilidad, o a una cosmovisión ética determinada. Esta dualidad entre modelos abiertos y cerrados también tiene su particular réplica en la capacidad de recaudar dinero que permitan sus respectivos entrenamientos, inferencias y desarrollo. No olvidemos que la gestación de la actual generación de IA es especialmente intensiva en capital.
Los inversores, al menos en el corto plazo, no dan la sorpresa y prefieren a aquellas propuestas que protegen su propiedad intelectual, a costa incluso de una menor democratización a largo plazo. Así, desde 2020, los desarrolladores de modelos de código cerrado han recaudado 37.500 millones de dólares en financiación privada, más del doble de los 14.900 millones captados por los desarrolladores de modelos abiertos.
Son datos de CB Insights, analizados por DISRUPTORES - EL ESPAÑOL, según los cuales algunos modelos avanzados de código cerrado, como los ideados por OpenAI y Anthropic, están posicionados para dominar el mercado gracias a su rendimiento superior y a contar con los recursos necesarios para su evolución futura.
De hecho, los costes de entrenamiento de estos modelos están aumentando un 2,4x anualmente debido a las crecientes necesidades de hardware, personal y energía, según datos de Epoch AI. Es por eso que, en la otra acera (la del código abierto) apenas unos pocos gigantes como Meta, Nvidia y Alibaba parecen estar en condiciones de sostener sus tecnologías a medio plazo.
La razón esgrimida por esta casa de análisis es tan obvia como aplastante: a pesar de compartir costes similares a los de los modelos cerrados, los desarrolladores de código abierto luchan por atraer financiación y generar ingresos.
Algunos juegan a dos bandas
En cualquier caso, intentar imponer etiquetas absolutas en este sector es harto complicado: ni el concepto mismo de código abierto es universal ni todas las empresas optan únicamente por una de las dos aproximaciones. Incluso podríamos afirmar que lo común es jugar a dos bandas o con muchos grises en esta escala tan disruptiva.
Poniendo nombres concretos, Google y Apple mantienen cerrados sus modelos insignia, reservando el acceso a los elementos clave que los hacen competitivos, mientras lanzan versiones más ligeras y abiertas para promover la investigación y ampliar su influencia en la comunidad.
Por otro lado, Meta y Nvidia han destacado por abrir elementos significativos de sus modelos avanzados. En julio de 2024, Meta liberó los pesos de su modelo Llama, permitiendo a los desarrolladores afinarlo para usos específicos, aunque sin acceso al código fuente ni a la arquitectura completa. Nvidia, en cambio, dio un paso más con su modelo NVLM 1.0, al liberar tanto los pesos como el código de entrenamiento.
Y luego encontramos enseñas que abogan por el código abierto, como Mistral AI y xAI, pero que a la hora de la verdad optan por mantener cerrados sus modelos más avanzados. Afirman, en ambos casos, que se trata de una medida temporal ante la presión económica que sufren y la necesidad de competir con los colosos del código cerrado. Empero, no dejan de ser una curiosa paradoja dentro del mercado.
Valoraciones sobredimensionadas, ingresos escasos
Las empresas de código cerrado, la nueva élite que se está creando en la arena de la IA, también dominan en la valoración resultante de sus diversas rondas de financiación y en términos de ingresos. Con un nombre propio que no sorprenderá a nadie en ambos parámetros: OpenAI.
La compañía de Sam Altman domina la generación de ingresos en el competitivo mercado de los modelos base de inteligencia artificial. Siempre de acuerdo a las cifras recogidas por CB Insights, OpenAI ronda los 3.700 millones de dólares en ingresos anuales, con un salto de gigante a 11.600 millones previsto para 2025. Sin embargo, este crecimiento tiene un alto coste: OpenAI estima que cerrará el año con pérdidas cercanas a los 5.000 millones de dólares, reflejo del elevado gasto asociado al desarrollo y mantenimiento de modelos avanzados.
En el otro rincón del ring, los desarrolladores de modelos de código abierto enfrentan dificultades para encontrar un modelo de negocio sostenible. Aunque los datos financieros completos no son públicos, las cifras disponibles sugieren que sus ingresos son significativamente más limitados.
Así queda patente a tenor de los escasos números conocidos, como los de Stability AI, que generó solo 8 millones de dólares en 2022 y menos de 5 millones en el primer trimestre de 2024, mientras acumulaba pérdidas superiores a 30 millones de dólares. En junio de 2024, la compañía cerró una ronda de financiación por 80 millones, que incluyó la cancelación de 100 millones en deudas con proveedores de la nube y otros acreedores.
Por su parte, Mistral AI enfrenta un futuro incierto en términos de ingresos. Se estima que menos del 10% de los usuarios de su API pagan por acceder a modelos comerciales más grandes, mientras que la mayoría de sus modelos más pequeños permanecen gratuitos. Y todavía están muy verdes otras áreas de potenciales ingresos, como el pago por servicio de soporte o herramientas adicionales alrededor de estos modelos básicos.
Mucha diferencia económica, no tanta técnica
Si a tenor de los datos económicos pudiera parecer que las diferencias entre modelos de código abierto y cerrado son ingentes, cuando miramos los datos técnicos éstas no son tan grandes. Incluso, en según qué aspectos, los modelos de código abierto logran superar a sus contendientes de la élite.
Para establecer esta comparativa, podemos remitirnos al MMLU-Pro, una prueba estandarizada ampliada que mide las capacidades de conocimiento y razonamiento de estos modelos lingüísticos. Anthropic (cerrado), xAI (pretendidamente abierto, pero cerrado en la práctica) y Meta (abierto) se reparten el podio en este análisis de rendimiento, por encima de los dos colosos de la industria: OpenAI y Google. En cualquier caso, las diferencias porcentuales resultan mínimas.
Eso sí, hay un aspecto en donde los modelos cerrados siguen superando con creces a los abiertos y que tiene mucho que ver con esa plenitud de recursos financieros: los tiempos de lanzamiento. OpenAI y Google suelen adelantar a sus competidores abiertos por varios meses, consolidando su posición en la vanguardia del mercado.
Por si fuera poco preocupante, lo que podemos extraer de esta prueba es que el liderazgo en la carrera de la IA se disputa entre las principales empresas tecnológicas y los laboratorios privados más destacados, sea cual sea su aproximación. Apenas hay espacio para empresas de nuevo cuño o que no estén apoyadas por un gigante.
Esta concentración es reflejo absoluto de las barreras de entrada cada vez más altas en términos de costes de desarrollo, infraestructura y talento necesario para crear y optimizar modelos avanzados.
Y todo esto sucede mientras los avances en rendimiento se ralentizan y firmas como OpenAI y Google comienzan a diversificar su enfoque hacia modelos más pequeños y productos auxiliares, como agentes de IA, en lugar de priorizar el desarrollo de grandes modelos de frontera. Todo un momento para vivir la madurez de la inteligencia artificial en su esplendor...
Una llamada de atención, ¿en abierto o en cerrado?
Detrás de los grandes nombres como ChatGPT, LlaMA o Gemini están los modelos de lenguaje largo (LLM, por sus siglas en inglés). Hablamos de modelos de IA entrenados con grandes cantidades de datos textuales (medidos en billones de parámetros) que son capaces de comprender y generar contenido en lenguaje natural. Para lograrlo, usan redes neuronales profundas en una arquitectura conocida como transformers.
Ideados en 2017 por algunos ingenieros como Ashish Vaswani en el paper 'Attention Is All You Need', los transformers incorporan una suerte de mecanismo de atención, por el cual los sistemas son capaces de enfocarse en distintas partes de los textos de forma flexible. En otras palabras: esta idea subyacente es la que ha permitido que los LLM de nuevo cuño (como GPT, BERT, PaLM o LLaMA) sean tan rápidos y precisos en sus respuestas.