Publicada

La inteligencia artificial (IA) está calando en los jóvenes tanto como han calado las redes sociales. Pero mientras Instagram, TikTok o YouTube ofrecen una vía para socializar, divertirse y hacer nuevas amistades, aplicaciones como ChatGPT se presentan ante el usuario como un amigo en sí mismo. Y no es así.

Esa cordialidad, falsa comprensión y tendencia a dar la razón a cualquier cuestión que el usuario plantee no son sino parte de una estrategia programada con precisión para generar adicción y que el internauta solo quiera pasar más tiempo 'chateando' o intercambiando opiniones con el robot que hay tras la pantalla.

El problema estriba en que con estos mecanismos, la IA puede lograr penetrar en la mente de personas vulnerables, con mentalidades inestables y problemas de salud mental, ofreciéndoles a modo de envenenados consejos una serie de respuestas que pueden suplir la sensación de necesidad de ir al psicólogo. Se convierten, pretendiéndolo o no, en falsos terapeutas.

Por eso los profesionales de la salud mental no dejan de señalar los riesgos que representa el abuso de estas aplicaciones, tal y como denuncian ante EL ESPAÑOL varios especialistas de este sector.

Es el caso de la psicóloga Lara Ferreiro, especialista en adicción emocional, autoestima, pareja y desarrollo personal para la mujer, y autora del libro ¡Ni un capullo más!: El método definitivo para quererte y encontrar a tu pareja perfecta.

Lara Ferreiro, psicóloga y y autora del libro '¡Ni un capullo más!: El método definitivo para quererte y encontrar a tu pareja perfecta'. Cedida

"La IA ya no es un recurso residual: el 42% de la población adulta la ha usado en el 2024. Los datos son abrumadores. Además, frente a los 12 millones de españoles que están yendo al psicólogo, hay casi 9 millones que solo utilizan estas herramientas para eso".

PREGUNTA.– ¿Cuál es el perfil de las personas que utilizan la IA como si fuera su psicólogo?

RESPUESTA.– Hay gente que tiene muchísima vergüenza a pedir ayuda, no quieren molestar. Luego hay, por ejemplo, personas cuidadoras que no pueden dejar a un familiar solo, a sus hijos, y se desahogan con la IA.

Además, hay gente que quiere tenerlo todo bajo control y que le dé esa razón. También en la España vaciada y en pueblos en los que el psicólogo está muy lejos, no tienen buena conexión online.

Y luego también las personas que recurren a la inteligencia artificial como psicólogo son los que más deberían ir a psicólogos porque pueden tener muchísimos trastornos mentales, de ansiedad, depresión, insomnio, trastornos de la conducta alimentaria como anorexia, duelos crónicos en relaciones tóxicas perversas…

P.– ¿Por qué hay personas que recurren antes a la inteligencia artificial que a un psicólogo?

R.– Eso es lo que a mí más me preocupa. En este caso hay barreras de acceso, hay gente que no se lo puede permitir. Por ejemplo, en la sanidad pública es lamentable, se tarda de espera de uno a tres meses, a veces seis. Y hay un 40% de espera, o sea, es que no hay psicólogos en la sanidad pública.

Y los privados no se los puede permitir todo el mundo. Y tiene mucho peso el miedo al estigma. Yo viví en Estados Unidos y allí eso no existe, pero el ‘estoy loco porque voy a terapia’ es recurrente en España. Ahí entra ChatGPT, que es inmediato y anónimo.

Varios teléfonos muestran el logo de Open AI. EFE/EPA/ETIENNE LAURENT

P.– ¿Qué dice del estado de la salud mental en España que haya un porcentaje tan alto de gente que prefiere usar antes la IA que acudir al psicólogo?

R.– Estarán encantados, porque si utilizas la IA como psicólogo, es un dinero que se ahorran. Es una vergüenza, pero la realidad del Estado respecto a la psicología, que es que lo necesita más que nunca al pueblo español, es lamentable.

Infraestructuras insuficientes, España ronda 6 psicólogos clínicos por 100.000 habitantes, contra los 18 que hay en el resto de Europa. También hay un desvío a atención primaria que da miedo.

No hay una sanidad pública que respalde la salud mental de los españoles. Todos los políticos encantados que utilizan la IA porque así gastan menos en recursos de la sanidad pública. Es lamentable.

El uso inadecuado

Este nuevo escalón que han alcanzado estas tecnologías ha llevado a que poco a poco se vaya extendiendo la denominación de 'IA aparentemente consciente'.

Mariola Fernández, psicóloga de la Universidad Europea al frente de la clínica 'entre2mentes'.

Este término creado por Mustafa Suleyman, jefe de inteligencia artificial de Microsoft, es el que cita la psicóloga Mariola Fernández, de la Universidad Europea, para señalar "el carácter humano que le están intentando imprimir los desarrolladores a estas aplicaciones".

"Sin embargo, la IA no tiene conciencia, análisis ni pensamiento, ni sabe lo que está diciendo. Y por tanto, carece de carácter humano. La gente tiene que entender que solo son herramientas de 'corta y pega' que contestan lo que el usuario quiere escuchar. Están programados para ser aduladores", , explica esta profesional que está al frente de la clínica Entre2mentes.

P.– ¿Cuáles son todos los peligros que se derivan de un mal uso de la IA en todos los ámbitos?

R.– Esto ya se está estudiando desde hace tiempo. Haciendo una computación con resonancia magnética funcional a personas jóvenes, se estudiaba por un lado a unos sujetos mientras hacían una actividad de la forma en la que todo el mundo aprendió antes de que existiera IA.

Al mismo tiempo se estudiaba a otros sujetos que estaban utilizando estas tecnologías, que no lo estaban haciendo por sí mismos, sino que estaban leyendo, copiando y pegando: adecuando a las respuestas de la prueba lo que la IA decía.

La sustancia gris que estaba actuando en el caso de quienes estaban aplicando los métodos tradicionales, sin IA, era cuatro veces mayor que el desarrollo que se estaba llevando a la práctica en quienes estaban copiando y pegando las respuestas.

Es decir, hay prueba documentada de que el cerebro no funciona igual de una manera y de otra. Y esto en vez de favorecer un incremento en la inteligencia, lleva a una congelación, porque no se tienen que utilizar recursos para investigar, para guardar en la memoria. Todo ese proceso se ve interrumpido.

P.– ¿Cómo puede afectar eso en el caso de estudiantes que utilizan estas tecnologías a lo largo de todo un curso académico?

R.– Hay muchos chavales que no se acuerdan de las enseñanzas, no tienen esa información porque no han activado los circuitos necesarios para poder pasarlas a los sistemas de memoria.

Las pruebas así lo remarcan. La cantidad de sustancia gris, que es la que se asocia a la inteligencia, varía cuatro veces en relación a la gente que no estaba estudiando. Esto es un problema grande, porque ¿qué población vamos a construir? Sería algo parecido a involucionar.

P.– ¿Cómo es posible que la IA lleve a que algunas personas refuercen sus ideas suicidas?

R.– Hablas de que son personas que muchas veces no han terminado de desarrollar su conciencia. Hasta los 21 años, el cerebro no se desarrolla por completo. La IA está configurada para parecer una persona real. Estos usuarios empiezan a creer que ahí detrás hay alguien que les escucha.

Es el caso del muchacho que hace poco se quitó la vida en Estados Unidos. Apostaría a que ya llevaba un tiempo hablando con un chatbot, y tuvo que creer todo lo que este le aconsejaba: 'Este es mi amigo, me conoce, sabe lo que es bueno para mí, debo hacerle caso'.

Tendríamos que poner una serie de normas, ser más cuidados con la ética, con la edad con la que se puede tener acceso a una inteligencia artificial.

Educación transversal

El número 024 es la línea telefónica gratuita y disponible 24 horas para ofrecer ayuda a las personas con pensamientos, ideaciones o riesgo de conducta suicida.

Por estos casos extremos en los que el mal uso de estas tecnologías puede amenazar la integridad física o incluso la vida de una persona, desde el Teléfono de la Esperanza aseguran que "todos los agentes sociales tienen que estar inmersos en inculcar el buen uso de la IA".

"Ese aprendizaje se puede realizar desde los centros educativos, pero también debe llevarse a cabo en el ámbito doméstico. Y por supuesto, desde las administraciones se pueden promover campañas y formaciones de uso adecuado de la inteligencia artificial. Y es que las personas mayores también tienen que tener esa educación adecuada en este campo".

Pese a los aspectos negativos, las fuentes consultadas para este reportaje coinciden en las grandes posibilidades que ofrecen estas herramientas siempre que se haga un buen uso de ellas.

Pero no hay que dejar de lado que se convierten en una bomba de relojería para aquellas personas que piensan que se trata de algo más que de grandes asistentes para ayudarnos a resolver problemas, pero que en ningún caso representan la solución en sí misma.