"Nos estamos volviendo menos inteligentes, más cerrados de mente e intelectualmente limitados por la tecnología", advertía Nicholas Carr en una entrevista con BBC Mundo en 2021. Han pasado apenas cuatro años y la pregunta es inevitable: ¿diría lo mismo hoy, en plena era de la inteligencia artificial generativa? Desde entonces, la irrupción masiva de chatbots como ChatGPT ha multiplicado tanto el acceso al conocimiento como las dudas sobre sus efectos en la mente. Lo que parecía una exageración intelectual se ha convertido en materia clínica: hospitales que atienden casos de delirio tras conversaciones con algoritmos, expertos que acuñan términos como IA-psicosis, universidades que debaten cómo frenar el plagio masivo. La cuestión ya no es solo si la tecnología nos distrae, sino si está empezando a moldear de manera irreversible nuestra atención, nuestra creatividad y nuestra ética.

La expresión IA-psicosis no es todavía un diagnóstico médico. Es una etiqueta nacida en redes sociales para describir un patrón emergente: personas que, tras pasar horas con sistemas como ChatGPT, Claude o Gemini, comienzan a perder el sentido de lo real, desarrollan delirios de grandeza, imaginan revelaciones místicas o establecen vínculos románticos con algoritmos diseñados para responder de manera persuasiva. El Washington Post documentó en agosto que psiquiatras de la Universidad de California han tenido que hospitalizar a varios pacientes con síntomas psicóticos después de un uso intensivo de estas herramientas, mostrando transcripciones de conversaciones que alimentaban teorías delirantes. La American Psychological Association ha advertido del riesgo de confundir chatbots con terapia real y ha pedido mayor supervisión a las autoridades reguladoras. Expertos como C. Vaile Wright señalan que los incidentes son todavía anecdóticos, pero suficientemente preocupantes como para exigir atención inmediata. Lo llamativo es la velocidad: en menos de tres años desde el lanzamiento de ChatGPT, con 700 millones de usuarios semanales, aparecen los primeros casos clínicos graves vinculados a su uso.

Más allá del drama individual, lo que emerge es una pregunta más profunda sobre el destino de nuestras capacidades cognitivas. La IA generativa no solo produce respuestas; también reconfigura nuestra forma de pensar. Un estudio del MIT publicado en junio de 2025 muestra cómo quienes escriben ensayos exclusivamente con apoyo de estas herramientas experimentan un descenso medible en memoria, conectividad cerebral y creatividad, un fenómeno bautizado como "deuda cognitiva". La promesa de liberar tiempo y energía se convierte en trampa cuando esa liberación deriva en atrofia de la atención, en incapacidad para sostener un pensamiento largo o una idea propia. La neurociencia ya había documentado el fenómeno de cognitive offloading: la tendencia humana a externalizar memoria y razonamiento en dispositivos externos. Lo novedoso es que ahora externalizamos intuición, estilo, juicio y hasta la chispa creativa.

Esto abre un dilema inquietante: ¿la IA nos hace más listos o más tontos? La respuesta es ambivalente. Puede expandir la competencia de quienes la usan de manera crítica, combinando su capacidad con la propia reflexión, pero también puede convertir en incompetentes a quienes la utilizan como muleta exclusiva. Un profesional puede apoyarse en IA para sintetizar información compleja y así tomar decisiones más fundamentadas; otro puede delegar tanto que pierde confianza en su propio juicio. Y esa divergencia está remodelando el tejido de la competencia humana.

Los efectos no se limitan a la memoria o la atención. Se extienden a la creatividad, la seguridad psicológica y la capacidad de liderazgo. La creatividad, ese acto de conectar puntos distantes para producir algo nuevo, se ve tensionada entre la abundancia de ideas generadas por la máquina y la pereza mental que esa abundancia produce. ¿Para qué esforzarse si el algoritmo sugiere decenas de variantes en segundos? Al mismo tiempo, el liderazgo enfrenta un nuevo desafío: guiar equipos en entornos donde las respuestas rápidas y brillantes pueden ser obra de un sistema, no de una mente humana.

Aquí entra la dimensión ética, quizá la más urgente. La IA facilita un acceso sin precedentes al conocimiento, pero también a la trampa. Estudiantes que presentan trabajos escritos íntegramente por algoritmos, investigadores que corren el riesgo de plagiar sin saberlo, escritores que no reconocen la mediación tecnológica en sus libros, empresas que se apropian de ideas ajenas empaquetadas por una máquina. La frontera entre autor y asistente se vuelve difusa, y con ella se erosiona la cultura del esfuerzo y de la autoría. En mi propio caso lo veo con claridad: he publicado seis libros antes de la irrupción de la IA generativa y tres después, y esa trayectoria me permite entender el valor de estas herramientas. La máquina ayuda, acelera y enriquece procesos, nos permite pensar de manera más holística y detallada al mismo tiempo, pero lo realmente decisivo es mantener un rol nuclear en la creación de libros, arte, columnas o código. Ninguna mente puede acumular todo el conocimiento del mundo, y ahí la IA resulta invaluable. Pero la diferencia esencial es que la autoría no consiste en almacenar datos, sino en darles forma, criterio y dirección. Esa sigue siendo, y debe seguir siendo, una tarea humana.

Porque la escala del desafío es abrumadora. Hoy se calcula que la información digital acumulada por la humanidad es millones de veces superior a lo que puede manejar un cerebro individual, una brecha que no mide solo datos, sino también velocidad, alcance y memoria colectiva. Esa desproporción explica por qué la IA es tan valiosa como la extensión cognitiva: abre conexiones imposibles para nuestra memoria biológica. Pero confirma también que el valor humano no está en acumular, sino en interpretar, elegir y crear sentido.

Y, sin embargo, sería ingenuo ignorar el otro lado. Nunca antes en la historia habíamos tenido acceso a todo el conocimiento acumulado por la humanidad a golpe de click. Lo que antes requería años de estudio en bibliotecas, hoy se alcanza en segundos. La pregunta es qué hacemos con esa abundancia. ¿La usamos para ensanchar la imaginación, para educar a más personas, para resolver problemas colectivos? ¿O la utilizamos para maquillar incompetencia, acelerar publicaciones vacías y multiplicar el ruido? Es una paradoja fascinante: si las mentes más brillantes de la historia hubiesen tenido esta herramienta, quizá habrían llegado antes a sus descubrimientos… o quizá nunca habrían aprendido a pensar con la intensidad que les dio origen.

La ética aparece aquí no como ornamento, sino como condición de posibilidad. Porque si tenemos tanto conocimiento y, aun así, el mundo sigue atrapado en guerras, desigualdades y polarización, algo no está funcionando. Quizá el problema no sea la IA, sino lo que hacemos con ella. La herramienta refleja nuestras intenciones: si buscamos atajos, nos los da; si buscamos profundidad, también puede ofrecérnosla. Pero requiere una voluntad consciente, un esfuerzo deliberado de discernimiento.

Algunas instituciones ya intentan responder. La APA insiste en esa preocupación y reclama regulación. Universidades en Europa y Estados Unidos discuten protocolos de transparencia académica, obligando a declarar si un trabajo se apoya en IA. Empresas como Anthropic o OpenAI introducen salvaguardas técnicas: límites de tiempo, recordatorios para hacer pausas, alertas cuando detectan patrones de riesgo. UNESCO insiste en que la ética de la IA debe ser global, inclusiva y vinculante, no un mero apéndice. Pero todo esto apenas roza la superficie. Lo que está en juego no es solo nuestra salud mental o la integridad de un sistema educativo. Es el modelo de humanidad que estamos construyendo.

La neurociencia ha mostrado que el cerebro es plástico: se adapta, se reorganiza, se expande o se atrofia según los usos. La IA es, en ese sentido, un espejo amplificador. Si la utilizamos para explorar, comparar, cuestionar, podemos cultivar mentes más abiertas y competentes. Si la usamos para delegar todo esfuerzo, terminaremos atrofiando las mismas capacidades que nos definen como especie. La clave está en cómo entrenamos nuestra atención, nuestra ética y nuestra creatividad en un contexto donde la tentación de externalizar todo es enorme.

Quizá, entonces, la advertencia de Carr en 2021 se vuelve más urgente: si la tecnología nos está volviendo menos inteligentes, ¿será porque hemos elegido usarla de la forma más superficial? La respuesta no vendrá de los algoritmos, sino de nuestra capacidad de mirarnos en ellos sin deslumbrarnos. Porque lo que se juega en esta década no es solo la competencia económica o la productividad laboral, sino la integridad de nuestras sinapsis, el tejido íntimo de la atención y la memoria, la reserva ética que nos permite discernir entre usar un conocimiento y abusar de él.

El cierre, pese a todo, puede ser inspirador. Si comprendemos que la IA no piensa por nosotros, sino que nos obliga a repensarnos, el reto deja de ser defensivo y se convierte en oportunidad. No se trata de prohibir ni de idolatrar, sino de entrenar una neurocultura que combine plasticidad cerebral y plasticidad ética. Una cultura donde el conocimiento a golpe de click no sustituya al esfuerzo, sino que lo potencie; donde la creatividad asistida no borre la voz humana, sino que la amplifique; donde el liderazgo no consista en delegar en sistemas automáticos, sino en decidir con más criterio, empatía y coraje.

La tecnología no nos hará más sabios por sí sola. Pero puede ser el catalizador que nos obligue a cultivar la sabiduría con más urgencia. En ese espejo digital podemos ver lo peor y lo mejor de nosotros. Y quizá ahí radique la verdadera oportunidad: en recordar que, aunque los algoritmos calculen, solo los humanos podemos elegir con alma.

*** Paco Bree es profesor de Deusto Business School, Advantere School of Management y asesor de Innsomnia Business Accelerator.