Ilustración del concepto de las matemáticas.

Ilustración del concepto de las matemáticas.

Software

La IA de Google se alza con el oro en las olimpiadas de las matemáticas: "sus soluciones fueron sorprendentes"

Una versión avanzada de Gemini ha alcanzado "oficialmente" un rendimiento propio de un competidor humano, con respuestas casi perfectas.

Más información: La IA preferiría acabar con los humanos antes que ser apagada, según una investigación: "Su razonamiento es preocupante"

Publicada

La inteligencia artificial ha llegado para quedarse, y ha irrumpido como un elefante en una cacharrería. En España ya sabemos que se usa en el ejército e incluso en servicios de inteligencia. Otras, como Google DeepMind, la usan para ganar campeonatos de matemáticas.

La división de desarrollo de IA de Google ha anunciado cómo la versión más avanzada de Gemini, aplicada con tecnología Deep Think, pudo alzarse con la medalla de oro oficial en la Olimpiada Internacional de Matemáticas.

Un logro que ya consiguieron otras IA anteriormente como AlphaGeometry, un sistema que en 2017 pudo resolver una buena parte de los problemas de estas Olimpiadas con un modelo de lenguaje neuronal. Google ha calificado los resultados de Gemini de sorprendentes.

Una IA medallista en matemáticas

No estamos hablando de algo baladí. La Olimpiada Internacional de Matemáticas (OMI) es la competición de este estilo con más prestigio de todo el mundo. Lleva existiendo desde 1959 y acoge a algunos de los jóvenes más potentes en este campo.

Lo curioso, tal y como expone Google, es que la OMI ha resultado ser un escenario ideal para poner a prueba el rendimiento de las inteligencias artificiales, ya que permite a los investigadores comprobar sus capacidades de resolución de problemas tanto matemáticos como de razonamiento.

Mientras que inteligencias artificiales de DeepMind como la propia AlphaGeometry 2 o AlphaProof consiguieron medallas de plata en anteriores ediciones, Gemini (dotada eso sí de Deep Think) consiguió resultados casi perfectos.

"Podemos confirmar que Google DeepMind ha alcanzado el ansiado hito, obteniendo 35 de los 42 puntos posibles: una medalla de oro", explicaba el doctor y profesor Gregor Dolinar, presidente además de la propia OMI.

Ilustración de un cerebro.

Ilustración de un cerebro.

Y es que según la propia DeepMind, esta versión potenciada de Gemini pudo resolver hasta 5 de los 6 problemas principales de OMI de forma perfecta, obteniendo el total de 35 puntos y un "rendimiento de medalla de oro".

La diferencia respecto a los modelos pasados es increíble. En 2024, AlphaProof y AlphaGeometry tuvieron problemas incluso a la hora de participar, requiriendo expertos que tradujesen los problemas del lenguaje natural a lenguajes como Lean, y viceversa.

Por si fuera poco, ambos modelos necesitaron de 2 a 3 días de computación para resolver los problemas, y aún así se llevaron la medalla de plata. Gemini pudo funcionar en lenguaje natural, generando sus resultados "directamente a partir de las descripciones oficiales de los programas".

Todo ello en el límite de la competición establecido en 4 horas y media.