Fotomontaje basado en Deepseek
Deepseek V3.2 es lanzado: se pone a la altura de Gemini 3 Pro y GPT-5 en algunas pruebas clave y tareas de razonamiento
Con el revuelo que se está levantando en OpenAI ante una Google voraz con Gemini 3 y Nano Banana, la startup china sigue a lo suyo con su IA open source.
Más información: DeepSeek R1 deja en ridículo a ChatGPT, Claude y Gemini: entra en el top 5 en rendimiento siendo una IA open source
Tras su nueva IA, se sigue a la espera del lanzamiento de Deepseek R2 que supuestamente será una revolución como modelo de razonamiento open source, para que hace unas horas se haya actualizado a la versión 3.2.
Frente a una Google imparable con Gemini 3 Pro, y OpenAI que ha decidido contrarrestar el empuje del gigante tecnológico con un nuevo modelo de razonamiento para la semana que viene, Deepseek 3.2 llega con las cosas bastante claras.
Sobre todo porque el equipo detrás de Deepseek ha identificado tres deficiencias importantes en los modelos open source actuales: procesamiento ineficiente de textos largos, capacidades débiles en agentes autónomos y una inversión insuficiente en el post-entrenamiento.
V.3.2 aborda estos problemas con una arquitectura de atención rediseñada y un escalado masivo en el post-entrenamiento. De hecho, lleva desde septiembre con una versión preliminar V.3.2-Exp que soluciona algunos de los aspectos más flojos de un modelo de razonamiento open source como Deepseek.
Una de las soluciones es volver a comprobar cada token anterior para la generación de cada nueva respuesta. Un proceso computacional de mayor coste para chats largos, aunque minimizado gracias al uso de un pequeño sistema de indexación para identificar las partes importantes del texto.
Comparativa de Deepseek V3.2 frente a otros
Se reducen los costes de computación y sin tocar la calidad de los textos. Deepseek afirma que acelera el procesamiento de entradas largas, aunque no ha dado ninguna cifra.
El post-entrenamiento es otro de los aspectos mejorados gracias a los recursos aportados que superan el 10 % de los costes originales del previo pre-entrenamiento.
Para crear los datos de entrenamiento, el equipo creó modelos especializados para matemáticas, programación, lógica y tareas agénticas. También ha construido 1.800 entornos sintéticos y miles de escenarios ejecutables basados en problemas reales de Github para entrenar a los agentes autónomos.
Rendimiento frente a GPT-5 y Gemini 3 Pro
En la prueba de matemáticas AIME 2025, V3.2 quedó con un 93,1 % justo detrás de GPT-5 con 94,6 %. No hay que olvidarse que OpenAI ya cuenta con GPT 5.1, así que en este terreno todavía le queda camino a Deepseek.
En programación, según The Decoder, Deepseek V3.2 alcanza 83,3 por ciento en LiveCodeBench para quedarse detrás de GPT-5 con 84,5 por ciento. Gemini 3 Pro sigue siendo líder con 95 %.
En SWE Multilingual, que pone a prueba a las IA en el desarrollo de software usando problemas reales de GitHub, V3.2 resolvió el 70,2 % de problemas batiendo a GPT-5 y sus 55,3 % obtenido.
Situaciones similares en las pruebas de razonamiento, aunque con el detalle de que necesita más tokens para llegar al mismo rendimiento que Gemini 3 Pro en la resolución de problemas de Codeforces.
Hasta aquí las mejoras en estas pruebas, pero Deepseek admite que todavía falla en tres áreas: amplitud de conocimientos, eficiencia de tokens y rendimiento en las tareas más complejas.
La idea para mejorar Deepseek yace en más pre-entrenamiento, una estrategia que algunos investigadores habían desestimado por ser un callejón sin salida.
Deepseek V3.2 ya está disponible a través de API y bajo licencia Apache 2.0 en Hugging Face. Un lanzamiento que pone de nuevo en evidencia los altos precios que ofrece OpenAI frente a los más asequibles de Deepseek.