¿Cómo puede doblarse el área de un cuadrado? Esta pregunta la recogía un tal Platón en el Menón, allá por el 385 a.C., atribuyéndosela a una prueba que Sócrates le planteaba a un joven esclavo como problema matemático.
Según el texto clásico, el niño, al principio, erraba al creer que bastaba con duplicar la longitud de los lados. Sócrates, sin darle nunca la respuesta, le condujo hasta la solución correcta: construir un nuevo cuadrado a partir de la diagonal del primero.
Ahora, 2.400 años después, Andreas Stylianides (Universidad de Cambridge) y Nadav Marco (Universidad Hebrea de Jerusalén) han querido repetir la prueba, pero usando a la inteligencia artificial generativa como conejillo de indias.
Lo esperable era que el chatbot -ChatGPT en este caso- reprodujera la solución clásica de Platón. Pero no lo hizo: optó por un enfoque algebraico -inexistente en tiempos de Sócrates-, improvisó hipótesis y cometió numerosos errores de razonamiento sorprendentemente humanos. Solo tras insistirle que buscara una respuesta “elegante y exacta” ofreció la solución geométrica de la diagonal.
¿Significa eso que ChatGPT es capaz de pensar como un niño de carne y hueso, capaz incluso de aprender y evolucionar como lo hacemos a lo largo de nuestra vida? Los propios autores descartan esta teoría: no “piensa” como un humano, pero su rendimiento “parece” el de un aprendiz que tantea, se corrige y progresa con la guía adecuada.
Esa “apariencia” es el punto neurálgico: ¿saber o simular saber?
La intuición de que “saber” no equivale a encadenar símbolos ni a acertar por probabilidad no es nueva. John Searle formuló en 1980 la “habitación china”: manipular signos (seguir reglas sintácticas) no implica comprensión semántica. En el caso que nos ocupa, que ChatGPT encadene respuestas plausibles no prueba que “entienda” el teorema, la demostración o el contexto histórico de Menón.
Lo extraño en este asunto es que la IA ya "conoce” (tiene en su corpus) la solución socrática y, aun así, no la activa hasta que se le guía con el criterio de “elegancia y exactitud”.¿Por qué?
Primero hemos de asumir que los modelos fundacionales (LLM) no indexan el mundo como un mapa conceptual estable, sino que configuran respuestas por patrones estadísticos sensibles al prompting (la forma de preguntar condiciona la forma de “saber” que la máquina simula). Y, justo después, debemos ser conscientes de que la evaluación es constitutiva del saber: distinguir una aproximación algebraica de una construcción geométrica exacta es parte del contenido que llamamos “saber”.
Bender, Gebru, Mitchell y otros autores ya advirtieron en 2021 contra el espejismo de los “stochastic parrots”: sistemas que repiten y combinan lenguaje a gran escala con riesgos éticos, de sesgo y de falsa autoridad epistémica. Si un modelo puede “sonar” convincente sin comprender, la carga de la prueba recae en el lector, profesor o periodista que verifica, contextualiza y contrasta. El problema viene cuando muchos creen a pie juntillas cualquier cosa que le vomite una de estas herramientas.
El “parecer saber” debe rendir cuentas a criterios de fiabilidad. Por eso los propios investigadores que se pusieron en la piel de Sócrates proponen leer el comportamiento del chatbot bajo el prisma de la Zona de Desarrollo Próximo (ZDP) de Vygotski: la distancia entre lo que un aprendiz logra solo y lo que logra con ayuda. En humanos, la ayuda (andamiaje) se retira gradualmente para que el alumno gane autonomía.
¿Tiene sentido extender esta filosofía a nuestra relación con la IA? ¿Puede la inteligencia artificial crecer según interactuemos con ella y podemos nosotros usarla como andamiaje para nuestro propio aprendizaje?
Alexander Sidorkin ha formulado la hipótesis del “leapfrogging effect”: la IA como andamio permanente que libera carga procedimental y permite abordar tareas cognitivas de orden superior antes y mejor. La idea es provocadora y útil… siempre que no olvidemos la condición: el andamio debe elevar estándares de comprensión, no sustituirlos. De lo contrario, convertimos la ZDP en una zona de dependencia permanente. Hace un tiempo planteaba el símil con la introducción de la calculadora en los colegios: me remito a la misma.
En cualquier caso, recordar lo que otros dijeron o lo que un modelo calculó no redunda nunca en conocimiento nuevo. Construir nuevas ideas -ya seamos los humanos en solitario o con la compañía de la inteligencia artificial- es lo que nos hará pasar del "parecer saber" al verdadero "saber".