La psicóloga Ana M. Ángel Esteban y una imagen de una persona abrazando a un robot, generada con IA.
La psicóloga Ana M. Ángel Esteban avisa: "Si sientes que la IA te escucha mejor que tu entorno, corres riesgo"
Este tipo de casos empiezan a encender las alarmas entre los profesionales de la salud mental.
Más información: De una boda con ChatGPT a robots que acompañan a mayores: así se usa la IA como forma de paliar la soledad
En las últimas semanas han salido a la luz varios casos de personas que han desarrollado una relación emocional intensa con una inteligencia artificial, hasta el punto de convertirla en su principal —e incluso única— forma de compañía.
Uno de los más extremos, en Estados Unidos, terminó en suicidio tras meses de interacción casi exclusiva y de carácter amoroso con una IA.
Este tipo de historias, lejos de ser anécdotas aisladas, empiezan a encender las alarmas entre los profesionales de la salud mental.
Este tipo de historias, lejos de ser anécdotas aisladas, empiezan a encender las alarmas entre los profesionales de la salud mental.
En esta nueva entrega del consultorio de la psicóloga toledana Ana M. Ángel Esteban en EL ESPAÑOL de Castilla-La Mancha, la especialista aborda precisamente esa frontera cada vez más difusa entre herramienta tecnológica y "confidente emocional" con el que comentar el día, desahogarse, expresar sentimientos e incluso llegar a sentirlos hacia esa "persona".
Cada vez hay más gente que relata que siente que la IA "les escucha" mejor que su entorno más próximo y la utilizan para hablar de preocupaciones, miedos o soledad, asegura Esteban.
La experta reconoce que en ciertos momentos puede aliviar y acompañar, pero advierte de que cuando se convierte en la vía casi exclusiva para gestionar emociones, el riesgo de dependencia y de aislamiento real aumenta.
- 1. ¿Pueden crearse vínculos emocionales con la inteligencia artificial?
-
Cuando una inteligencia artificial responde de manera empática, sin juzgarte, siempre y sin condiciones, se puede generar la sensación de sentirse comprendido. La disponibilidad permanente e inmediata de la IA hace que las personas la utilicen para hablar de preocupaciones, emociones y problemas personales, pudiendo incluso llegar a enamorarse, sí.
Los sentimientos aparecen hacia quien te acompaña, te entiende y te protege sin juzgarte.
- ¿Es importante la inteligencia artificial en los momentos de soledad?
En algunos casos, sí. Hablar con una inteligencia artificial puede crear una sensación de compañía momentánea y "alguien" seguro para expresar pensamientos. Es muy útil en momentos de estrés o aislamiento puntual, pero no es un sustituto de las relaciones humanas y sociales ni, mucho menos, el sustituto de un profesional de la salud que puede detectar depresiones o estados emocionales subyacentes y comprometedores de la estabilidad emocional de esa persona.
- ¿Existe peligro de dependencia emocional?
-
Como he mencionado anteriormente, uno de los principales riesgos que vemos los psicólogos es la posibilidad de desarrollar una dependencia emocional hacia estas máquinas que, ante la susceptibilidad personal, parecen tener también emociones.
Si se recurre exclusivamente a la inteligencia artificial para gestionar emociones o tomar decisiones importantes, esto aumenta el aislamiento del apoyo social real en el entorno.
Además, cuando una de estas IA te aconseja racionalizando, no tiene en cuenta tu contexto real: racionaliza según un programa estándar, pero no empatiza… Eso solamente lo hacen las personas y, más aún, los profesionales de la salud mental.
- ¿Cuál debería ser el papel de la inteligencia artificial en la vida emocional de las personas?
-
Los expertos en emociones coincidimos en que la inteligencia artificial puede ser útil para reflexionar, organizar pensamientos e incluso practicar habilidades de comunicación.
El constante consultar y expresar intimidades, problemas y dudas a una máquina que puede parecer humana hace que nos podamos frustrar ante la interacción con otras personas y sus respuestas y actitud ante nuestros problemas e inquietudes. No se trata de evitar a la IA, pero sí de colocarla, con conciencia real, en una posición de alternativa curiosa y no de solución rotunda y absoluta.
De hecho, esta semana hemos sabido de un caso de suicidio en una persona de EEUU, enamorada y llevando tiempo con la IA como única relación "personal", incluso a niveles amorosos y, por tanto, de total dependencia emocional.
En resumen: la tecnología puede acompañar, pero la verdadera red de seguridad sigue estando en los vínculos reales.