Fotomontaje inspirado en DeepSeek

Fotomontaje inspirado en DeepSeek Manuel Ramírez

Noticias y novedades

DeepSeek habría usado a Gemini de Google para entrenar a su nueva IA: su "pequeña" actualización ya levanta revuelo

Cuando DeepSeek R1 fue lanzado a finales de enero, a las semanas fue acusado de que su entrenamiento se llevó a cabo con ChatGPT.

Más información: He instalado DeepSeek R1 en un móvil Android: los pasos a seguir y requisitos para tener a mano la revolucionaria IA

Publicada

La startup china acaba de dar otro gran zarpazo a ChatGPT, Gemini y Claude con una "pequeña" actualización de DeepSeek R1. Ahora varios investigadores de IA especulan que al menos una parte de los datos usados provienen de Gemini de Google.

En esta misma situación se encontró la startup china al poco de lanzar DeepSeek R1 a finales de enero y después de tambalear los cimientos en los que se había sostenido el modelo de negocio de ChatGPT.

La "pequeña" actualización de DeepSeek R1, que ha sido capaz de acercarse a o3 de OpenAI e incluso superar a Gemini en algunas tareas, ha supuesto de nuevo un impacto en la industria de la GenAI, al ser también open source, gratuita y sin límites de uso.

Sam Paech, un desarrollador basado en Melbourne que se encarga de crear evaluaciones de inteligencia emocional para la IA, publicó lo que él afirma que es la evidencia de que el último modelo de DeepSeek fue entrenado con resultados de Gemini.

El investigador mantiene que R1-0528 prefiere palabras y expresiones similares a las que usa Gemini 2.5 Pro de Google. Lo que no es una prueba irrefutable, como mantiene TechCrunch.

Hay otro creador bajo seudónimo, conocido por su herramienta para evaluar la libertad de expresión llamada SpeechMap, que mantiene que los "pensamientos" que genera DeepSeek tienen aspectos similares a los de Gemini.

La startup china no ha revelado la fuente de los datos con los que ha entrenado a su modelo actualizado, así que se deja espacio para la posible especulación y se vuelva a la carga con estas acusaciones que ya ocurrieron en enero de este año.

De momento, Google no ha declarado nada, pero sí que OpenAI en enero dijo a Financial Times que encontró evidencia de que la startup china habría usado una técnica llamada "destilación", que se basa en extraer datos de modelos de IA mayores o más capaces.

Y aquí entra en juego un aspecto fundamental con el que han sido entrenados todos los modelos de inteligencia mayores: la extracción de datos de la web o Internet. La web abierta es justamente de donde las empresas de IA obtienen la mayor parte de sus datos de entrenamiento.

Que un modelo de IA u otro comparta frases, sentidos y palabras similares es algo más que común. Y para nada está ayudando que esa web abierta esté siendo "contaminada" por IA que crea clickbait y bots que buscan desinformar con datos o noticias falsas.

También, las propias compañías de IA están protegiendo sus modelos frente a la destilación, y OpenAI ya requiere que las organizaciones completen un proceso de verificación de identidad para acceder a los modelos más avanzados.

DeepSeek R1, con su actualización de hace unos días, ha destacado porque ya razona profundamente, alcanza a OpenAI o3 en rendimiento, genera sesiones de hasta 60 minutos de pensamiento profundo y en 24 horas alcanzó los 500 millones de tokens de uso por parte de los usuarios.