Publicada

China es, posiblemente, uno de los países que más rápido están adoptando la IA a nivel general. España no para de presenciar titulares sobre sus propuestas, que van desde crear organizaciones mundiales hasta desarrollar hospitales con IA.

Baidu, la firma responsable del motor de búsqueda más importante del país ha afianzado todavía más esta idea con sus dos nuevos chips de inteligencia artificial. Hablamos de los Baidu M100 y Baidu M300, pensados para entrenamiento e inferencia.

El anuncio se llevó a cabo en su conferencia tecnológica anual Baidu World. Mientras que el M100 es un semiconductor específicamente pensado para mejorar la eficiencia de la inferencia, el M300 abarca también cuestiones de entrenamiento.

Los nuevos chips de IA de Baidu

Tal y como recoge Reuters, la conferencia tuvo como protagonista sendos chips desarrollados por la unidad Kunlunxin Technology de la propia empresa. Así, se han revelado los Kunlun M100 y M300, pensados para dos tareas muy concretas.

El M100 es un chip específicamente optimizado para entornos de inferencia a gran escala, mejorando el rendimiento de estos procedimientos tipo MoE (Mezcla de Expertos). Esta arquitectura divide un modelo grande en submodelos más compactos y especializados.

Nuevos chips de Baidu. poezhao0605 X

Luego está el M300, que básicamente es una versión de alto rendimiento que, además de tocar cuestiones de inferencia, también está orientado al entrenamiento de modelos multimodales de grandísima capacidad, con miles de millones de parámetros.

El M100 está previsto para lanzarse en 2026 y el M300, a principios de 2027. Suponen además una piedra más en el proyecto de China para conseguir una mayor autosuficiencia en lo que respecta a semiconductores de inteligencia artificial.

Pero, ¿qué es la inferencia? Básicamente, se puede definir como la capacidad de los modelos de inteligencia artificial de reconocer patrones y sacar conclusiones usando información que nunca han recibido.

Es una de las bases de la inteligencia artificial moderna y sus avances. La inferencia de hecho se sitúa justo en los entrenamientos de modelos de IA, especialmente los que usan grandes conjuntos de datos.

Baidu en pleno evento. Baidu Omicrono

Dichos modelos consisten en algoritmos de toma de decisiones que se entrenan en redes neuronales que se construyen casi como un cerebro humano. Un ejemplo sería una IA centrada en el reconocimiento facial.

Este modelo se debería entrenar con una cantidad ingente de datos, que implicarían millones o incluso miles de millones de imágenes de rostros humanos. Con esta información, el modelo podría identificar rasgos inherentemente humanos.

La inferencia es el proceso de aplicar lo que el modelo de IA ha aprendido a la hora de tomar decisiones, realizando predicciones o sacando sus propias conclusiones a partir de los datos usados en el entrenamiento.

Con la inferencia, un modelo previamente entrenado podría usar lo aprendido para analizar datos nuevos y tomar decisiones al respecto, basándose en patrones previamente identificados. De nuevo, es vital para el desarrollo de la IA.

Baidu y el chabot Ernie Reuters Omicrono

Aquí juegan un papel clave los M100 y M300. El primero está orientado a mejorar concretamente la eficiencia de esta inferencia en los modelos MoE. El M300 va más allá y se centra en modelos multimodales gigantescos tanto en lo que refiere a inferencia como a entrenamiento.

Junto a estos chips, Baidu también presentó dos soluciones supernodo, para soportar una interconexión de gran velocidad en múltiples nodos, los Tianchi 256 y Tianchi 512 para conectar grandes grupos de nodos de chips Baidu P800.