Mark Zuckerberg, fundador y consejero delegado de Meta Platforms, en el acto de entrega de los premios Breakthrough el pasado 5 de abril.

Mark Zuckerberg, fundador y consejero delegado de Meta Platforms, en el acto de entrega de los premios Breakthrough el pasado 5 de abril. Reuters

Software

Meta se replantea su estrategia de IA y desarrolla modelos de código cerrados para competir contra Google y OpenAI

Sus actuaciones en torno al código abierto no han tenido los resultados esperados para una firma que ya empieza a notarse rezagada.

Más información: Cómo una 'desconocida' IA china ha desbancado a ChatGPT por sorpresa: todo lo que hay tras el 'bombazo' de DeepSeek

Publicada

El 2025 ha resultado ser un año muy movido para una Meta que ha copado titulares en España. Millonarios fichajes en forma de talento para sus laboratorios de IA y contrataciones de alto rango establecen una dinámica en la que Zuckerberg desea liderar.

Tal y como adelanta la CNBC, los últimos bandazos en cuanto a estrategia de inteligencia artificial estarían causando bastante confusión interna en la plantilla de Meta. Tanto, que se habla de un viraje del código abierto a los modelos propietarios.

En este sentido se dibuja un nuevo modelo de IA llamado Avocado, que aspira a ponerse al día frente a los rivales que sí se han establecido en la industria, junto a un nuevo sucesor de Llama que también se posicione entre el resto de modelos de la competencia.

La inteligencia artificial de Meta, en movimiento

Las fuentes internas consultadas en torno a esta nueva estrategia de IA de Meta afirman que esta nueva dirección no está especialmente definida, alimentando los rumores sobre una posición tardía en la ya temida carrera por la IA.

En un primer momento, el foco estaba claro: los modelos de IA de código abierto, los modelos Llama que a diferencia de otros modelos de inteligencia artificial, estaban disponibles de forma totalmente gratuita para investigadores y científicos.

Mark Zuckerberg, consejero delegado de Meta Plaforms, en un evento en San Francisco (EEUU) el 10 de septiembre de 2024.

Mark Zuckerberg, consejero delegado de Meta Plaforms, en un evento en San Francisco (EEUU) el 10 de septiembre de 2024. Meta Platforms

La idea era simple. Que los usuarios experimentados y los profesionales pudieran aprovechar los modelos Llama para mejorarlos y establecer un entorno colaborativo que, en palabras del propio Zuckerberg en 2024, "recortaba distancias" respecto a los modelos cerrados.

Todo esto comenzó a cambiar en verano, cuando Zuckerberg comenzó a coquetear con la idea del código cerrado. Tras el lanzamiento de Llama 4 en abril de este año, el CEO aseguró que debían ser cuidadosos a la hora de publicar "en código abierto".

Es aquí donde entra el futuro modelo alternativo a la familia Llama. Su nombre en clave es Avocado, el cual podría ser un modelo propietario de código cerrado específicamente pensado para rendir en pruebas de rendimiento.

Desde Meta explican que este modelo está preparándose para realizar conjuntos de pruebas de rendimiento respecto a sus procedimientos de entrenamiento, con el objetivo de que tenga una buena acogida cuando se lance en el primer trimestre del 2026.

Mark Zuckerberg, CEO de Meta.

Mark Zuckerberg, CEO de Meta.

Avocado estaría siendo desarrollado nada menos que por la unidad TBD Lab de Meta con el famoso Alexandr Wang a la cabeza, el que fuera director ejecutivo de ScaleAI y uno de los fichajes estrella de Meta.

No es para menos; hablamos de una contratación que, sumándole la de sus principales ingenieros e investigadores, le costó a Meta una inversión de 14.300 millones de dólares en verano, sobre la empresa de IA que fundó Wang.

El tibio recibimiento de Llama 4 no fue el único aspecto problemático de la estrategia de código abierto que ahora se está replanteando Meta. Fuentes internas de Meta afirman haber estado molestas por la situación con DeepSeek y su modelo R1.

El modelo DeepSeek R1 ganó una fama increíble a principios de año por su brutal rendimiento respecto a otros titanes del sector, haciendo tambalear a gigantes como Nvidia o Google. Un modelo que contenía piezas de modelos Llama en su interior.

Mark Zuckerberg, CEO de Meta, con sus gafas inteligentes.

Mark Zuckerberg, CEO de Meta, con sus gafas inteligentes. Mark Zuckerberg Omicrono

Usando la conocida como 'destilación en IA', que consiste en crear modelos más pequeños a partir de otros grandes, DeepSeek desarrolló un conjunto de modelos destilados a partir de R1 usando las arquitecturas de Qwen y Llama.

Concretamente, los modelos destilados basados en Llama se centraban en el rendimiento bruto y en el razonamiento, especialmente aplicado a tareas de precisión. Esto no gustó dentro de Meta, dado el éxito de R1.

La escasa recepción de Llama 4, el problema de DeepSeek y los fichajes millonarios de Meta han promovido una profunda reestructuración interna y la petición de sus trabajadores por desarrollar modelos de IA más competitivos en lo que a potencia refiere.

Es precisamente Alexandr Wang con TBD Lab el que estaría sufriendo la presión por desarrollar un modelo de inteligencia artificial que permita a Meta posicionarse en esta carrera por la IA, sobre todo con el crecimiento explosivo vivido entre los modelos de la competencia.