Cada cierto tiempo aparece un estudio que, convenientemente adobado por titulares sensacionalistas, nos advierte de que la inteligencia artificial “apaga” el cerebro. El último, firmado por un grupo del Media Lab del MIT, ha vuelto a encender la polémica: quienes escriben con ayuda de un modelo generativo muestran menos “compromiso neural” en un electroencefalograma, recuerdan peor frases de su propio texto y declaran menor sensación de autoría que quienes escriben “a pelo” o con un buscador tradicional.
La tentación inmediata es concluir que la inteligencia artificial generativa “nos atonta”. Pero si uno mira con calma lo que realmente se ha medido, aparece una vieja confusión: seguimos intentando evaluar el aprendizaje con instrumentos pensados para otra época.
El trabajo del MIT es interesante porque incorpora mediciones fisiológicas durante una tarea de escritura y contrasta varios escenarios de uso. También es, como los propios autores admiten, un preprint con una muestra limitada, una tarea acotada y condicionantes experimentales que se parecen muy poco a cómo usamos la tecnología fuera del laboratorio.
Es como declarar que el piloto automático “estropea” a los pilotos porque, cuando lo tienen activado, mueven menos los brazos
Pero incluso aceptando sus resultados tal cual, la pregunta no es “qué le hace la inteligencia artificial al cerebro”, sino “qué le pedimos al cerebro cuando tenemos inteligencia artificial”.
Si diseñamos una prueba que recompensa el recuerdo literal de frases, la similitud de un estilo consigo mismo y la sensación subjetiva de autoría, penalizaremos precisamente lo que hace valiosa a una herramienta generativa: externalizar parte de la carga, estandarizar ciertos giros y reconfigurar el proceso de creación para centrarnos en otras cosas.
Es como declarar que el piloto automático “estropea” a los pilotos porque, cuando lo tienen activado, mueven menos los brazos.
La reducción de actividad en determinadas bandas del electroencefalograma puede interpretarse como un “descompromiso”, pero también como eficiencia y offloading: el cerebro deja de gastar recursos que una “prótesis cognitiva” resuelve mejor, y los reserva para objetivos diferentes. Llevamos siglos haciendo eso.
La escritura, los archivos, las bibliotecas, las calculadoras y los buscadores son, todos ellos, mecanismos de externalización de memoria y cómputo
La escritura, los archivos, las bibliotecas, las calculadoras y los buscadores son, todos ellos, mecanismos de externalización de memoria y cómputo. Cada vez que apareció uno de ellos, hubo quien corrió a afirmar que la mente “se ablandaba”.
Lo que se ablandaba, en realidad, era el examen que, tercamente, seguía pidiendo cálculo manual, lista de reyes godos o la fórmula por pura memorización. Si cambias la herramienta, pero mantienes la vara de medir, la conclusión será siempre la misma: la herramienta “empeora” a quien la usa.
La educación lleva demasiado tiempo atrapada en ese bucle. Recordemos la década pasada: informes que “probaban” que las tabletas y los smartphones hacían “bajar las notas”. ¿De verdad?
Lo que bajaban eran las notas en pruebas que medían repetición y cierre, no exploración y apertura. Simplemente, metíamos ordenadores en clase para seguir haciendo preguntas de papel.
Hoy repetimos el error con la inteligencia artificial generativa. Si a un estudiante le prohibimos usarla durante el aprendizaje, medimos memoria de bajo nivel o le obligamos a escribir en veinte minutos un ensayo que nadie leerá, comprobaremos, faltaría más, que con inteligencia artificial recuerda menos su texto y su cerebro “se enciende” menos.
La solución no es demonizar la herramienta, sino rediseñar la tarea
Y seguiremos sin saber si es mejor pensador, mejor verificador de fuentes, mejor sintetizador de perspectivas o mejor creador de hipótesis.
Lo relevante ahora no es si usar o no usar inteligencia artificial en el aula o en el trabajo, sino qué competencias queremos formar y cómo medirlas cuando la inteligencia artificial existe. Con modelos generativos, el valor se desplaza hacia formular buenas preguntas, descomponer problemas, diseñar estrategias de consulta y prompting, contrastar outputs, detectar errores sutiles, integrar evidencias y tomar decisiones justificadas.
Eso no se ve en un electroencefalograma ni cabe en un examen de memorística. Se ve en el proceso: en los borradores y las huellas de iteración, en la trazabilidad de las fuentes, en la capacidad de explicar por qué se acepta o se descarta una respuesta del sistema.
Evaluar eso exige otras rúbricas y otras prácticas: bitácoras de trabajo, defensas orales, auditorías de proceso, coevaluación, criterios de originalidad conceptual y, sí, también periodos sin apoyo digital para consolidar lo aprendido. No para castigar, sino para entender qué se queda dentro y qué podemos permitirnos “subcontratar” o, como se dice ahora, “offloadear”.
¿Existe un riesgo de “deuda cognitiva”? Por supuesto: si convertimos la inteligencia artificial en una muleta para no pensar, produciremos más y aprenderemos menos. Pero la solución no es demonizar la herramienta, sino rediseñar la tarea. Igual que un buen curso de cálculo no evalúa a golpe de tabla de logaritmos, un buen curso de escritura no puntúa la capacidad de teclear palabras sin apoyo, sino la de construir una tesis, sostenerla con argumentos, refutar objeciones y llegar a una conclusión propia.
La trampa no es que la máquina ayude, sino que se use para esconder la ausencia de pensamiento
Si el estudiante recurre a la inteligencia artificial generativa, deberá demostrar dominio del proceso y criterio sobre el resultado. La trampa no es que la máquina ayude, sino que se use para esconder la ausencia de pensamiento.
En el entorno profesional ocurre lo mismo. Medir rendimiento por horas de teclado o por “originalidad” estilística cuando la producción textual se comoditiza es tan absurdo como pedir a un analista financiero que haga a mano una regresión.
Lo que distingue a un buen profesional con inteligencia artificial no es la caligrafía, sino el juicio: cómo plantea el problema, qué datos solicita, cómo comprueba la robustez de un resultado y cómo comunica incertidumbres y trade-offs. Si no cambiamos los indicadores, seguiremos confundiendo productividad con copia y aprendizaje con esfuerzo visible.
El debate sobre si la inteligencia artificial “nos hace tontos” es, en el fondo, un síntoma de inmovilismo. Nos aterra aceptar que el currículo, los métodos y las métricas deben cambiar. Preferimos medir chispazos de actividad neural o recuentos de n-gramas antes que abordar la pregunta incómoda: ¿qué significa aprender en un mundo de superabundancia computacional?
Mientras no respondamos, seguiremos acumulando titulares y malentendidos. No es el cerebro lo que se degrada: es el termómetro. Cambiemos la medida, y veremos que lo que importa no es cuánta memoria llevamos encima, sino qué hacemos con la que ya no necesitamos cargar.
***Enrique Dans es Profesor de Innovación en IE University.