Foto generada por la IA al pedirle que se retrate a ella misma sintiendo ansiedad.

Foto generada por la IA al pedirle que se retrate a ella misma sintiendo ansiedad.

Ciencia

¿Pueden las inteligencias artificiales padecer enfermedades mentales?

A medida que crecen en complejidad, las IAs podrían sufrir errores físicos o de programación comparables a enfermedades mentales humanas.

Más información: La inteligencia artificial nunca será comparable a la humana: la reflexión sin histerias de Daniel Innerarity

Publicada

Una de las mayores dificultades para ponernos de acuerdo sobre lo que puede pasar, y lo que no, con las inteligencias artificiales, es que cada cual tiene su propio concepto de cómo funcionan estos artefactos. Para muchas de las personas con las que he hablado en las últimas semanas, una IA viene a ser una especie de Google mejorado, es decir, una aplicación informática que busca en una inmensa base de datos y devuelve los resultados que le parecen más adecuados para contestar a lo que se le preguntó.

Esto es así cuando se utiliza la IA para que haga, mejor y más deprisa, lo que antes hacían los buscadores. No deja de ser normal: si quieres utilizar un busto de bronce como martillo, también funciona como martillo. Y dependiendo del tamaño de la mesa, seguro que el Guernica de Picasso también funcionaría como mantel.

La cuestión es que la inteligencia artificial, aunque pueda responder a nuestras preguntas, no se ha creado para eso. O no para eso, fundamentalmente. Su finalidad principal es que sean capaces de entender el lenguaje natural y den respuestas a preguntas complejas, utilizando razonamientos algorítmicos que generen contenido distinto al que encontraron en las bases de datos que se utilizaron para entrenarlas. Sí, he dicho generen, porque no se trata de que busquen algo que ya existe, sino de que creen nuevos enfoques y nuevas ideas.

Y aquí viene el primer paralelismo con la mente humana. Nosotros también funcionamos así: la creatividad no es sino la capacidad de recombinación de lo conocido o experimentado para generar nuevas ideas y nuevas propuestas. Cuando un escritor crea una novela, recombina piezas en su mente hasta que encaja la nueva historia. Lo mismo hace el pintor con sus cuadros y la pareja que discute en el aparcamiento, creando reproches nuevos, nunca antes mencionados. La inteligencia biológica es recombinación, más que nada.

Ahora viene la pregunta de cómo hacen eso las máquinas. Para una explicación completa, y de muy buena calidad, recomiendo el libro Inteligencia artificial, de Melanie Mitchell. Con el enfoque actual, para intentar explicarlo brevemente, las inteligencias artificiales se basan algo llamado perceptrones, que son una especie de imitación informática de nuestras neuronas, con entradas y salidas de información similares a las de éstas.

Foto generada por la IA al pedirle que se retrate a ella misma sintiendo ansiedad.

Foto generada por la IA al pedirle que se retrate a ella misma sintiendo ansiedad.

Lo más empleado en la actualidad son los perceptrones multicapa, que son redes de células informáticas interconectadas entre sí, de manera que, con distintas ponderaciones, vayan obteniendo resultados cada vez más ajustados a lo que se les pide. Cuanto mayores sean estas redes, y más capas contengan, mayor será su capacidad de aprendizaje y recombinación.

Estamos hablando, como es de imaginar, de algo monstruosamente grande, y por eso la IA consume las ingentes cantidades de electricidad que consume, hasta el punto de que algunos centros de datos necesitan su propia central nuclear. Crear y entrenar a una IA para que reconociese los números escritos a mano requirió decenas de miles de estas pequeñas células informáticas, por ejemplo.

Conseguir que reconociera los gatos en millares de fotografías necesitó millones de perceptrones. Llegar al rendimiento de ChatGPT o DeepSeek, capaces de resolver problemas lógicos inventados (no sacados de una obra que pueda haber consultado previamente), requiere las inversiones de decenas de miles de millones de las que todos hemos oído hablar.

La cuestión que nos ocupa es qué puede suceder con el mal funcionamiento de estas redes de perceptrones, ya sea por motivos físicos, de hardware, o por cuestiones informáticas o de programación, es decir, de software.

Sabemos que las enfermedades mentales pueden tener su origen tanto en disfunciones neurológicas como en problemas psicológicos o conductuales, derivados de traumas, abusos, u otras circunstancias personales. Ya que recomendé un libro sobre inteligencia artificial, haré otro tanto con uno que habla de nuestra propia inteligencia: Pensar rápido, pensar despacio, de Daniel Kahneman. Maravilloso.

Las enfermedades mentales orgánicas, como pueden ser el Parkinson, el Alzheimer o algunas modalidades de la epilepsia, provienen de un deterioro del sistema nervioso, una malformación o una disfunción física. Otras dolencias psicológicas, como la ansiedad, la psicosis, algunas formas de depresión, o el trastorno obsesivo compulsivo, se originan con más frecuencia en factores sociales, psicológicos o de conducta.

Igual que nuestro sistema nervioso, las redes de perceptrones pueden deteriorarse físicamente por distintos motivos. ¿Pero cuáles pueden ser las consecuencias de este deterioro? ¿Simples pantallazos azules, como cuando Windows nos dejaba tirados?

Dada la complejidad de las redes neuronales artificiales, las consecuencias de estas “averías” pueden ser de tipos muy diferentes, desde las simples inexactitudes a un desequilibrio general del comportamiento de la IA, que vuelva sus respuestas inservibles o incluso peligrosas.

Si lo que se pretende, y se consigue parcialmente, es imitar el funcionamiento del cerebro biológico, una serie de disfunciones físicas, en forma de cables quemados o placas cortocircuitadas, por ejemplo, afectarán a la IA de un modo similar a la mente humana: generando patrones indeseados y respuestas fuera del rango previsible.

De igual manera, si las ponderaciones de software, o pesos, con los que se entrenan y afinan las inteligencias artificiales, sufren algún tipo de error reiterado, pueden generarse problemas conductuales procedentes de estos errores de programación, que desvíen matemáticamente los resultados obtenidos de los óptimos esperados.

Imitar lo natural tiene estas cosas. El error, que es base de la evolución, sobre todo a nivel genético, puede suponer mejoras en algunos casos, pero la mayoría de las veces conlleva consecuencias desagradables. Y mucho me temo que la inteligencia artificial no va a ser una excepción.

A medida que aumente la complejidad de las redes de perceptrones, los errores, tanto físicos como de programación, van a ser cada vez más difíciles de detectar y de corregir, con lo que no descarto que en el futuro, un futuro no muy lejano, veamos inteligencias artificiales depresivas, paranoicas, o simplemente chifladas, por volver al vocabulario popular.

Ojalá haya suerte.