Una de las ideas más difíciles de transmitir al hablar de inteligencia artificial es que no estamos ante un paisaje estable. La mayoría de la gente cree que la inteligencia artificial “ya está hecha”, que ChatGPT o cualquier otro modelo representan una especie de punto final tecnológico.
Pero no es así. Lo que estamos viendo ahora es apenas una primera aproximación. Una obra gruesa, funcional, impresionante, sí, pero muy lejos aún de parecerse a lo que vendrá.
El gran problema es que explicamos la inteligencia artificial de manera equivocada. Hablamos de redes neuronales, de parámetros, de modelos, como si todo eso fuese intuitivamente evidente. Pero el cerebro humano no funciona así: nosotros no aprendemos ajustando miles de millones de pesos matemáticos.
No pensamos en una única estructura monolítica. Nuestra forma de aprender y razonar es modular, estratificada, organizada en capas. Construimos significado a través de procesos que se alimentan unos a otros, y donde cada capa interpreta, corrige o complementa a la anterior.
Y aunque hoy la inteligencia artificial no funciona exactamente así, las investigaciones más recientes apuntan a que podría empezar a hacerlo.
Hoy los modelos son asombrosos construyendo frases, pero no siempre entienden lo que dicen
Para explicarlo sin tecnicismos: imagina que tu mente estuviese compuesta por varias “mentes” más pequeñas, cada una especializada en una cosa. Una que reconoce patrones visuales, otra que entiende relaciones espaciales, otra que interpreta emociones, otra que anticipa consecuencias.
Y ahora imagina que esos componentes no funcionan aislados, sino que se corrigen mutuamente, construyendo un entendimiento más completo del mundo. A ese concepto algunos investigadores lo llaman aprendizaje anidado, o nested learning. No es un sustituto del cerebro, pero es una aproximación más fiel que la simple estadística masiva que domina los modelos actuales de inteligencia artificial.
¿Por qué importa esto? Porque abre la puerta a futuros sistemas de inteligencia artificial que no solo imiten el lenguaje, sino que lo comprendan de forma más estructurada.
Hoy los modelos son asombrosos construyendo frases, pero no siempre entienden lo que dicen. Pueden sonar inteligentes sin pensar realmente.
Con estructuras anidadas, sin embargo, podrían empezar a razonar mejor, a equivocarse de forma más humana, a ajustar sus expectativas con más precisión, a recordar no solo datos, sino también contextos. Un sistema que piense “en capas”, como lo hacemos nosotros, tendría un comportamiento más flexible, más orgánico, más cercano a lo que llamaríamos “comprensión”.
La inteligencia artificial no está terminada, no es un producto acabado. Es una tecnología en construcción
Y aquí es donde entra la pregunta que da título a la columna: ¿cómo piensas tú? Porque en realidad, todos usamos aprendizaje anidado sin saberlo. Cuando cocinas una receta nueva, mezclas experiencia previa, intuición, memoria sensorial y razonamiento.
Cuando opinas sobre un tema político, no usas una única idea, sino una red de creencias, emociones y conocimientos que se entrelazan. Cuando resuelves un problema, no lo haces en línea recta, sino saltando entre capas cognitivas. Nuestro pensamiento es intrínsecamente modular, y quizá la próxima generación de inteligencia artificial también lo sea.
¿Significa esto que nos acercamos a máquinas que pensarán como nosotros? Probablemente no en el corto plazo. Aquí es donde conviene rebajar expectativas: lo de hoy no es una inteligencia artificial “cerebral”, sino una estadística gigantesca disfrazada de conversación.
Pero lo interesante es el movimiento, la tendencia. La inteligencia artificial no está terminada, no es un producto acabado. Es una tecnología en construcción. Y así como nadie imaginaba hace veinte años que internet sería lo que es hoy, nadie debería asumir que la inteligencia artificial actual es más que un prototipo avanzado.
Lo fascinante es que esta evolución no la veremos solo en laboratorios o centros de investigación: la veremos en nuestras vidas. Inteligencia artificial que aprende a entender mejor lo que queremos decir. Sistemas que detectan cuándo estamos razonando, cuándo improvisamos, cuándo dudamos.
Máquinas que ajustan su respuesta no a la literalidad de nuestras palabras, sino a la intención que hay detrás de ellas. Asistentes que ya no dependerán de una instrucción perfectamente formulada, sino que sabrán reconstruirla a partir de señales dispersas, como hacemos los humanos.
Pero esta evolución también plantea preguntas importantes. Si una inteligencia artificial empieza a “pensar” de forma más parecida a la nuestra, ¿cómo diferenciamos su razonamiento del nuestro? ¿Cómo evitamos proyectar sobre ella capacidades que no tiene? ¿Cómo mantenemos la claridad en un mundo en el que la frontera entre ayuda y dependencia puede desdibujarse?
La respuesta, creo, empieza por entender cómo pensamos nosotros mismos. La tecnología solo amplifica lo que ya somos. Si no sabemos cómo funciona nuestra mente, difícilmente entenderemos cómo interactuar con una máquina que intenta imitarla.
Por eso, más que preguntarnos “¿cómo piensa la inteligencia artificial?”, deberíamos empezar por preguntarnos: “¿cómo pienso yo?”. Porque la clave de lo que viene no está en la máquina, sino en nuestra capacidad para comprenderla sin caer en ilusiones.
La próxima década no estará marcada por la sustitución de humanos, sino por el descubrimiento de nuevas formas de colaboración. Y esa colaboración será más rica y más segura si entendemos que pensar no es algo que ocurre en una única capa, sino en múltiples planos simultáneos.
La inteligencia artificial del futuro probablemente se parezca más a nosotros. Pero eso no significa que vaya a reemplazarnos. Significa que tendremos que convivir con un nuevo tipo de pensamiento, diferente del humano, pero no completamente ajeno. Y la mejor manera de prepararnos es simple: entender, por fin, cómo pensamos.
***Enrique Dans es profesor de Innovación en IE University.