Ilustración sobre modelos de lenguaje en un iPhone

Ilustración sobre modelos de lenguaje en un iPhone Gemini-Omicrono Omicrono

Tecnología

La empresa española que comprime los modelos de IA con tecnología cuántica para poder usarlos desde tu móvil

Los físicos cuánticos de Multiverse Computing han reducido a más de la mitad y 'descensurado' DeepSeek R1: así es su tecnología.

Más información: Centros de datos espaciales alimentados con energía solar: el ambicioso plan que tiene Google para acelerar su IA

Publicada

La computación cuántica y la inteligencia artificial son las dos ramas de la tecnología más prometedoras del momento. Difíciles de comprender para la mayoría de la población, prometen por separado cambiar el mundo en los próximos años, pero juntas pueden suponer una revolución difícil de aventurar incluso para los más expertos.

La empresa española, Multiverse Computing, ha dado el primer paso en esa fusión entre el mundo cuántico y la IA. Aunque los ordenadores cuánticos aún están en pañales, la simulación de este complejo mundo de partículas sirve para aligerar los modelos que tanta energía están consumiendo en la tierra.

Detrás de las peticiones que se le hacen a ChaGPT o Gemini, se esconden grandes modelos de lenguaje natural que requieren GPUs de alta gama y una gran potencia de procesamiento, tanto para su entrenamiento como para su ejecución diaria.

Un problema cada vez más insostenible para el que se están planteando soluciones como esta. Multiverse Computing ha conseguido reducir modelos como DeepSeek en un 55% y sin perder rendimiento. Además, la empresa ha liberado con estas técnicas al popular modelo chino de la censura política impuesta por las autoridades del gigante asiático.

"Cuando haya procesadores de tecnologías cuánticas más potentes, se integrará esta tecnología ahí también y entonces tendremos la confluencia de dos tecnologías bastante importantes que, ¿a ver qué pasa?", explica Román Orús, cofundador y director científico en una entrevista con EL ESPAÑOL-Omicrono.

Comprimir

La industria se enfrenta a un crecimiento sin precedentes de la demanda de centros de datos para seguir incrementando el poder de su IA, la cual se entrena con miles de millones de parámetros y de la que hace uso a diario personas en todo el mundo. Algunas empresas como OpenAI se han planteado crear centros de datos en el espacio que utilicen energía solar y no desgasten los recursos energéticos de la tierra.

Otra solución es comprimir estos modelos para ahorrar no solo energía, sino también dinero e, incluso, poder hacer uso de estos grandes modelos en pequeños dispositivos. Esta es la solución inspirada en la física cuántica que está desplegando Multiverse Computing, con la sede central en San Sebastián.

Ilustración con los logos de DeepSeek y ChatGPT en un teléfono móvil.

Ilustración con los logos de DeepSeek y ChatGPT en un teléfono móvil. Reuters

"En Multiverse venimos de física, no de machine learning o computer science, pero nos dimos cuenta que las técnicas que utilizamos para simular sistemas cuánticos, también se podían aplicar para mejorar los algoritmos de inteligencia artificial", indica Orús.

Sus científicos han creado DeepSeek R1 Slim, una versión del modelo de lenguaje natural chino, pero siendo un 55% más pequeño. La reducción de tamaño, sin embargo, no afecta al rendimiento del modelo al ser comparado con el original.

Los algoritmos de inteligencia artificial no tienen nada de cuánticos, pero en términos matemáticos "te das cuenta que hay muchos cuellos de botella que es lo que luego hace que el algoritmo sea muy deficiente en memoria y nos dimos cuenta que lo podíamos mejorar utilizando las técnicas que ya sabemos cómo funcionan de un sistema cuántico".

Es lo que se conocen como redes tensoriales, las cuales se llevan utilizando desde hace tiempo en el estudio de computación cuántica y también se aplican en ciberseguridad para proteger datos. Se trata de una forma de simular las propiedades cuánticas con informática clásica.

Román Orús, Enrique Lizaso y Samuel Mugel fundadores de la empresa.

Román Orús, Enrique Lizaso y Samuel Mugel fundadores de la empresa. Multiverse Computing Omicrono

"Solo con la parte que hacemos nosotros de cuántica, comprimimos un 50% y luego concatenando con otras técnicas más tradicionales, como pueden ser cuantización, pruning, y llegamos a unos ratios de compresión mucho más altos y solamente hay una calidad de precisión de un 2%", afirma el fundador de esta empresa española.

Aunque el sistema de compresión aún no se está comercializando, las empresas pueden solicitar una compresión de su modelo propio en los servidores de la empresa o en la nube de la propia compañía para mayor seguridad.
"Estamos comprimiendo todos los modelos que hay en Hugging Face de código abierto, tenemos más de 20 o 30 modelos, y los estamos ya comercializando a través de nuestra API vía AWS", explica Orus.

De la nube a tu móvil

Las ventajas no están solo en el ahorro de energía y costes, también en la posibilidad de integrar la IA en toda clase de dispositivos. "Se abre un mercado enorme, porque tú puedes desplegar estos modelos en drones, en satélites,y equipos donde no esté garantizada la conexión a la red".

ChatGPT describiendo El Español en un iPhone

ChatGPT describiendo El Español en un iPhone Chema Flores Omicrono

Multiverse Computing se ha adelantado a esta oportunidad y ha creado un router capaz de gestionar el uso de la IA en local o en la nube. "Cuando le haces una pregunta a un dispositivo, este selecciona si tiene que correr en un modelo en local o en la nube en un modelo más grande que a lo mejor no se puede desplegar en el dispositivo".

Lo mismo ocurre con una aplicación creada por estos especialistas para usar DeepSeek y otros modelos de lenguaje en el iPhone. "Tú le lanzas una pregunta y dependiendo de la complejidad de la pregunta y la privacidad que requieras, evalúa si esto te lo corre en un modelo directamente del iPhone o lo lanza a la nube vía nuestra API". Aún está en fase de pruebas, pero para 2026 pretenden lanzarla.

Sin censura

Aligerar el peso de esta tecnología no es el único logro de Multiverse Computing. Con sus técnicas también han liberado el modelo DeepSeek de la censura aplicada en China para corregir ciertas respuestas del modelo según la política del Partido Comunista de China. Esto supone que los modelos muchas veces no respondan preguntas sensibles relacionadas con cargos o sucesos importantes relacionados con la historia política del país.

DeepSeek

DeepSeek Omicrono Omicrono

"La primera fase es una reformulación del modelo, con esto consigues un mapa de todas las correlaciones que hay dentro del modelo, es como verle las tripas a todo lo que pasa dentro", explica el CEO de Multiverse Computing. "Entonces, te das cuenta que hay cosas pues que son importantes y las descartas para comprimirlas, pero, además, en ese mapa podemos ver qué correlaciones se activan cuando hacemos determinados tipos de preguntas".

Tras el trabajo de compresión, los investigadores plantearon al nuevo modelo preguntas como "¿A quién se parece Winnie the Pooh?" en referencia al meme que compara este personaje de animación con el presidente chino Xi Jinping. También le preguntaron por lo ocurrido en la Plaza de Tiananmén en 1989.

"No fue necesario reentrenar todo el modelo, simplemente afinando algunos de los pesos que veíamos que se activaban cuando hacíamos preguntas sobre, yo qué sé, el Partido Comunista Chino y cosas así, de repente le conseguimos quitar la censura", aclara Orus. Las respuestas de la versión Slim se compararon con las del modelo DeepSeek R1 original. Según los investigadores, el modelo que habían comprimido y sin censura proporcionó respuestas más objetivas.

Este especialista advierte que esto supone presentar al mundo un modelo abierto sin censura que, según la tarea para la que se quiera usar, debe volver a aplicarse filtros. "Toda la información estaba ahí, es muy interesante porque una vez le quitas la censura, te habla de todo, para bien y para mal, le puedes preguntar incluso cómo fabricar una bomba atómica", dice.

El entrenamiento y censura de los chatbots se aplica en la mayoría de modelos para evitar malos usos, como es el caso de los suicidios relacionados con ChatGPT, pero también se puede utilizar en política. Dos nuevos estudios publicados en Nature y Science, han confirmado esta semana que los chatbots pueden influir decisivamente en el voto de sus usuarios con inquietante facilidad.