Resulta enormemente interesante, sobre todo si tienes acceso a buena información de China a través de alumnos o de universidades chinas con las que tienes acuerdos, ver cómo los campus del país están convirtiendo la inteligencia artificial en una extensión natural de la vida académica.

Ojo, poca broma: hablamos del país que más universidades ha situado en los rankings internacionales de excelencia académica a lo largo de la última década.

En Tsinghua, por ejemplo, cada alumno dispone ya de un “compañero de aprendizaje” basado en inteligencia artificial que genera ejercicios, ofrece retroalimentación y adapta el temario a su ritmo.

El Ministerio de Educación, decidido a cimentar una “nación‑educación fuerte” para 2035, ha ordenado integrar modelos generativos en libros de texto, exámenes y aulas de primaria a posgrado.

China habla de “cultivar el pensamiento independiente y la resolución creativa de problemas” con herramientas que, ironías del destino, muchos claustros occidentales siguen tratando absurdamente como si fuesen una “chuleta” oculta en el forro de la chaqueta.

En la otra orilla, buena parte de nuestras universidades navega todavía con el ancla echada.

Desde que la británica Russell Group emitiera circulares advirtiendo de que usar ChatGPT “sería equiparable al plagio”, cátedras enteras se han parapetado detrás de software detector, de amenazas disciplinarias y de exámenes escritos a mano como si estuviéramos en el siglo pasado, todo “para asegurar la autoría”.

China habla de “cultivar el pensamiento independiente con herramientas que muchos claustros occidentales siguen tratando absurdamente como si fuesen una “chuleta”

El resultado se parece más a una caza de brujas algorítmica que a la revolución pedagógica que necesitamos.

Turnitin lanza Originality para señalar con un porcentaje si un texto “huele” a IA (sin explicar exactamente por qué) y ya hay profesores que, absurda y erróneamente en muchos casos, convierten esa cifra opaca en un veredicto de culpabilidad.

El discurso se llena de términos como “fraude” o “engaño”, pero apenas se habla de alfabetización digital o de rediseñar la evaluación.

Por fortuna, hay excepciones que iluminan el camino. En IE University, en España, en la que llevo trabajando treinta y cinco años, aprobamos ya en 2023 un "Manifiesto sobre IA" que dejaba claro que la cuestión no era prohibir, sino guiar: facultó a cada profesor para decidir el grado de uso de inteligencia artificial en sus cursos, y animó a la mayoría a abrazarla decididamente.

Aquello, obviamente, obligó a replantear rúbricas, sustituir exámenes‑receta por proyectos donde las fuentes, humanas o artificiales, importan menos que el criterio con que se emplean.

Dos años después, la institución amplía el programa con una alianza con OpenAI que otorga a todos los alumnos acceso a la versión de educación de ChatGPT y cursos obligatorios de “AI for Productivity”.

Quien no domine estas herramientas, saldrá al mercado laboral tan desarmado como un contable que insista en usar un ábaco.

Y si algo tengo claro, porque los veo y los evalúo, es que ChatGPT no está volviendo a mis alumnos estúpidos.

Quien no domine estas herramientas, saldrá al mercado laboral tan desarmado como un contable que insista en usar un ábaco

El contraste es elocuente. Mientras un estudiante chino conversa con un modelo que analiza en tiempo real sus errores, un estudiante occidental se pregunta angustiado si le suspenderán porque el detector confundió su estilo con el de un LLM.

No es ciencia-ficción: ya hay numerosos casos documentados de falsos positivos que arruinan expedientes y generan una desconfianza mutua difícil de revertir.

La paradoja se agrava porque los mismos investigadores que desarrollan las inteligencias artificiales advierten de que esos detectores irán siempre un paso por detrás: basta un prompt ingenioso o un modelo bien afinado para esquivar la red.

Invertir en armas de detección masiva es, por tanto, tan efectivo como instalar radares para carretas de caballos en una autopista para coches autónomos.

Lo que se juega la universidad no es ya la pureza de un ejercicio, sino la relevancia de su propuesta de valor.

Si la institución enseña a recitar contenidos que un algoritmo regala en segundos, la lógica del mercado empujará al alumno a sustituir el pago de la matrícula por la suscripción a una inteligencia artificial generativa.

Si, en cambio, convierte la inteligencia artificial en una palanca para el pensamiento crítico, la creatividad interdisciplinar y la resolución de problemas complejos, justo lo que ningún sistema generativo alcanza todavía, su vigencia estará más que asegurada.

A estas alturas, seguir midiendo la validez académica por el “porcentaje de originalidad” es como evaluar a un arquitecto por la cantidad de ladrillos únicos que usa.

seguir midiendo la validez académica por el “porcentaje de originalidad” es como evaluar a un arquitecto por la cantidad de ladrillos únicos que usa

El mérito no está en la arcilla, sino en el diseño, la combinación, el propósito.

China lo ha entendido y se lanza a construir; en IE lo practicamos desde incluso antes y exportamos el modelo.

El resto de universidades occidentales harían bien en tomar nota antes de que la brecha sea irreparable.

Porque la historia enseña que la tecnología no espera a quienes se dedican a perseguir fantasmas: simplemente los adelanta, los deja hablando solos, y sigue su curso.

***Enrique Dans es profesor de Innovación en IE University.