Fachada de la Facultad de Medicina de la Universidad Complutense.

Fachada de la Facultad de Medicina de la Universidad Complutense. Europa Press

Ciencia

La inteligencia artificial se adueña de las universidades: así es la amenaza 'idiotizante' que se ciñe sobre los alumnos

La irrupción en el entorno universitario de esta tecnología siembra dudas sober las implicaciones para el cerebro de su uso prolongado.

Más información: Los modelos de lenguaje como ChatGPT pueden llegar a ser más persuasivos en un debate que los seres humanos

Publicada

La Inteligencia Artificial (IA) ha llegado para quedarse en la universidad. Alumnos e instituciones ya la incorporan en su día y a día, hasta el punto de que algunos centros ya cuentan con proyectos para implementarla, como la Universidad de Jaén, la de Granada, la Universidad Politécina de Madrid (UPM) o la Europea. 

La usan para generar contenido y facilitar la investigación, y, de forma limitada, para tutorías personalizadas con los alumnos. La Universidad de Jaén, por ejemplo, llegó el año pasado a un acuerdo con Google para incorporar Chat Gemini (su IA generativa) en todas las cuentas corporativas de los docentes, administrativos y estudiantes.

Otras no han dado ese paso, pero la utilizan de alguna manera (como herramienta docente o asistente virtual, entre otros) o cuentan con titulaciones específicas sobre el tema. Como es habitual con todas las cuestiones en torno a la IA, esta no está exenta de cuestionamientos y debates acerca de los riesgos y oportunidades que plantea.

Óscar Corcho, director del departamento de Inteligencia Artificial de la UPM, cree que el beneficio supera al peligro, sobre todo en enseñanzas técnicas como las ingenierías o la Informática. 

Aprender a trabajar con ella puede servir a los alumnos a ser más productivos en sus trabajos futuros, como la programación o la creación de software, ejemplifica. Eso sí, "sin pensar en el reemplazo de las personas, sino en tener estas herramientas como ayuda", matiza Corcho.

¿Un efecto 'idiotizante'?

Sin embargo, la irrupción de esta tecnología en el entorno universitario también levanta dudas, como el riesgo de dependencia o cómo afecta el uso prolongado al cerebro de los alumnos. Algunos investigadores se han preguntado ya si puede tener una especie de efecto idiotizante y la ciencia ha empezado a arrojar resultados.

La preimpresión de un artículo publicada este verano sugería que los estudiantes que escriben ensayos empleando ChatGPT usan menos su cerebro que quienes no cuentan con este apoyo. 

El trabajo es de un equipo del Instituto Tecnológico de Massachusetts (MIT) que estudió la actividad cerebral de 54 estudiantes a través de encefalografías. Los dividieron en tres grupos: unos podía usar grandes modelos de lenguaje (LLM, por sus siglas en inglés), otros solo tenía acceso a la web y a motores de búsqueda y los restantes no tenían más que sus conocimientos.

Los resultados mostraron que el primer grupo tenía una conectividad neuronal mucho más débil que aquellos que solo habían empleado su cerebro. Aunque el grupo era pequeño, la líder del estudio reconoció a la revista Nature que alimenta la dudas sobre si el uso de herramientas de IA vaya en detrimento del pensamiento crítico de los estudiantes.

No son los únicos que han arrojado luz sobre el tema. Este mismo año, Anthropic, una empresa estadounidense de este sector, analizó un millón de conversaciones entre universitarios y su IA generativa Claude. 

El resultado: los alumnos de ciencia, tecnología, ingeniería y matemáticas la usaban mucho más que los de otras disciplinas, como las humanidades. Casi la mitad lo hacían buscando respuestas directas u otro contenido, pero con una participación muy baja por su parte. Es decir, cogían casi lo primero que ofrecía.

No obstante, todavía falta evidencia científica para dar una respuesta certera sobre el asunto, ya que otras voces defienden que podría resultar útil. Por ejemplo, el rector de la Universidad Estatal de Ohio, Ravi Bellamkonda, declaró a Nature que su uso para ciertas tareas podría liberar espacio cerebral para hacer otras, como emplear la calculadora en Matemáticas.

Incluso, una investigación de la Universidad de Harvard que empleó un tutor con IA vio que los alumnos podian mejorar su aprendizaje gracias a esta herramienta. Lo usó durante una clase con un grupo de alumnos y la programó para motivarles a seguir investigando los conceptos por su cuenta, en vez de darles todas las respuestas.

Para evaluar el efecto, los estudiantes hicieron una prueba antes y después. Los que pertenecían al grupo del tutor con IA obtuvieron resultados mejores que los que habían usado los métodos tradicionales.

Dependencia tecnológica

La dependencia tecnológica es otra de las cuestiones protagonistas en el debate sobre la IA y la educación. Casi nueve de cada diez estudiantes de grado en España la han convertido en una herramienta más de su formación y el 35% la emplea a diario, según un informe de la Fundación CYD.

Hay, además, una diferencia notable entre estudiantes y docentes, sostiene Isidro Aguillo vicedirector técnico del Instituto de Políticas y Bienes Públicos del Consejo Superior de Investigaciones Científicas (IPP-CSIC). Los primeros van por delante de los segundos respecto al uso. 

Corcho cree que no se debe centrar el foco solo en la IA porque esa dependencia no le atañe solo a ella. El docente cree que ya está presente en todos los ámbitos del entorno digital: "¿Quién conduce actualmente sin GPS?", se pregunta.

Jorge Barrero, director general de la Fundación Cotec está de acuerdo con él. Considera que la sociedad, en general, tiene cierta dependencia con la tecnología. "Ya estamos enganchados al móvil". Tal y como él lo ve, la IA no hace más que añadir otra capa adicional a algo que ya existía antes.

Solo un 11% de los alumnos encuestados por Fundación CYD dijo no utilizarla nunca y el motivo principal es que lo consideran poco ético. Ni rastro de la preocupación por el riesgo neurológico que ya ha mencionado la ciencia. Ante esta situación, cabe preguntarse dónde se sitúa la línea roja entre un apoyo en el proceso de estudio y hacer trampas. 

Aguillo lo tiene claro: en la declaración. Para él, lo fundamental es que se establezca como requisito la necesidad de indicar cuándo un trabajo se ha realizado con IA. "Hay que hacerlo incluso para el caso mínimo de cualquier trabajo menor o cualquier búsqueda", insiste. 

No solo eso, también habría que informar de la herramienta concreta que se ha usado y, en asuntos más sofisticados, de la instrucción que se le ha dado para generar ese resultado.

Otro matiz importante es tener presente que esta tecnología, también puede cometer errores. Los más importantes son los conocidos como alucinaciones. Los LLM están programados para generar una respuesta siempre, aunque no tengan la información necesaria.

En ese intento de ofrecer la respuesta al usuario pueden emplear datos erróneos o, incluso, inventados. El directivo del IPP-CSIC subraya que tanto estudiantes como profesores deben tenerlo muy en cuenta a la hora de emplear estas herramientas.

IA y métodos de evaluación

El informe de Fundación CYD refleja que la gran mayoría de universidades que participaron habían detectado que los alumnos han incluido respuestas generadas por IA en sus exámenes. El trabajo contó con la participación de 20 universidades y 800 estudiantes.

Cosas como esta plantean que quizá ha llegado el momento de replantear la evaluación de los alumnos. Aguillo apuesta por implantar pruebas en las que se comprometa más el espíritu crítico y el análisis específico por parte del alumnado, en lugar de centrarse en la memorización.

Si la IA es una norma, quizá hay que reconfigurar cómo se valora la implicación del alumno. Esto implica evaluar la relevancia de la información que presenta el alumno, si es cierta o si es capaz de identificar las alucinaciones, si las hay, dice el directivo del IPP-CSIC. 

Esto permitirá ver si el alumno ha hecho una labor de investigación y edición o si simplemente ha copiado y pegado lo primero que la IA le ha ofrecido. Esto último sería para Aguillo "una línea roja" que debe implicar consecuencias. El alumno es el responsable último de la calidad del contenido: "Si hay errores, es su culpa", plantea.

Herramientas como ChatGPT aparecieron hace menos de cinco años y desde entonces su evolución ha sido meteórica. "A la universidad le ha pillado con el pie cambiado", sostiene. Él mismo imparte cursos sobre esta materia en las universidades y reconoce que pueden pasar meses, e incluso un año, desde que los plantea hasta que puede impartirlos.

Al final, no es solo un problema de velocidad. Esa lentitud también retrasa la formación, así que los docentes y los alumnos siguen llegando tarde.