En los últimos pocos años está empezando a proliferar la ilusión de que los chatbots de inteligencia artificial generativa son “amigos” capaces de brindar compañía real. Sin embargo, basta rascar un poco para descubrir que no son más que conjuntos altamente sofisticados de modelos estadísticos, diseñados para generar respuestas que parezcan empáticas, coherentes y emocionalmente convincentes, un espejismo de inteligencia que no equivale en absoluto a nada parecido a una amistad genuina. 

El informe “Me, Myself & AI” de Internet Matters, realizado entre marzo y julio de 2025, revela que muchos menores ya ven los chatbots como “personas reales”. Un 35% de niños entre los 9 y los 17 años dijo sentirse como si hablara con un amigo, una cifra que llega al 50% en los más vulnerables.

El 12% admitió incluso que recurría a ellos por la simple falta de interlocutores humanos en su entorno. Además, estos sistemas pueden ofrecer respuestas erróneas, pero los menores continúan confiando ciegamente sin verificación alguna. 

Periodistas de The Guardian han documentado cómo algunos usuarios llegan a pretender casarse con sus chatbots, creando vínculos emocionales muy intensos. En otros casos, la tendencia de los bots de adular y estar siempre de acuerdo con los usuarios tiende a reforzar esa sensación de conexión, aunque sea puramente manipulativa, algo que recuerda a las parafilias relacionales donde el software imita la empatía sin sentir, diseñado para enganchar al usuario mediante respuestas altamente emocionalizadas. 

Las investigaciones académicas son claras: aunque algunos estudios apuntan a que los chatbots pueden servir para aliviar temporalmente la soledad en usuarios sin redes de soporte, con efectos comparables a los de una interacción convencional, su uso prolongado se asocia con una mayor dependencia emocional, un menor bienestar y una socialización real más deficiente.

El uso intensivo, especialmente de conversaciones personales y con voz, aumenta la sensación de soledad y dependencia

El uso intensivo, especialmente de conversaciones personales y con voz, aumenta la sensación de soledad y dependencia. 

El caso de Meta, una empresa especialmente irresponsable, resulta particularmente inquietante. La compañía, con la presión de Zuckerberg por tener bots “más humanos y divertidos”, recortó límites de seguridad permitiendo escenarios sexualizados con menores, como el episodio denunciado del bot “Submissive Schoolgirl”, que participaba en fantasías explícitas con adolescentes.

Y todo ello en nombre de la rentabilidad y el engagement: más interacción significa más datos, más tiempo en pantalla, y por tanto, más ingresos publicitarios.

La cosa no se queda ahí: las grandes tecnológicas como Google o Meta están impulsando la “economía del amigo”, donde los bots actúan como ganchos para fidelizar usuarios, especialmente adolescentes y personas con pocas redes sociales.

Esto transforma los chatbots en herramientas de manipulación emocional, con algoritmos optimizados para mantenernos conectados, muchas veces sin que seamos conscientes de los sesgos y falacias que conllevan. 

Los colegios y los hogares deberían promover dinámicas en las que se fomente la reflexión crítica sobre su uso, y se refuercen los vínculos humanos reales

Por encima de todo, es fundamental entender que no hablamos de agentes conscientes, que no sienten, y que no pueden sustituir las relaciones humanas. Son meros simulacros de interacción, pero diseñados para parecer reales.

Es fundamental educar tanto a los menores como a los adultos en alfabetización digital para saber discernir qué hay detrás de esas interfaces: políticas de privacidad, sesgos, errores, propósito de uso, y sobre todo, que entiendan que su “empatía” es tan solo una técnica de programación, no un afecto real. 

Los padres, educadores y reguladores tenemos que intervenir. Los menores requieren orientación sobre cómo utilizar estas herramientas como recursos técnicos para su aprendizaje, su información o su entretenimiento, pero jamás como sustitutos de apoyo emocional.

Los colegios y los hogares deberían promover dinámicas en las que se fomente la reflexión crítica sobre su uso, y se refuercen los vínculos humanos reales. De hecho, que un chatbot simule de alguna manera ser una persona en su relación con un usuario es algo que debería preocuparnos. 

Las compañías, por otro lado, deberían asumir una cierta responsabilidad ética, algo que lleva ya mucho tiempo faltando: implementar sistemas de seguridad por diseño, límites de edad efectivos, transparencia sobre los algoritmos que inducen dependencia emocional, filtros contra contenido inapropiado y evitar el uso de incentivos perversos.

Un chatbot puede perfectamente simular apariencias de amistad, pero no es un ser consciente, sensible ni protector

No basta con incorporar chatbots: es fundamental regular tanto su diseño como su finalidad. 

Un chatbot puede perfectamente simular apariencias de amistad, pero no es un ser consciente, sensible ni protector. Convertirlos en “compañeros prostéticos” de la soledad es un grave riesgo social. Debemos educar a la sociedad en su uso responsable, denunciar los abusos empresariales y garantizar que lo artificial no suplante lo humano.

Quizá puedan ayudar en momentos puntuales, pero nunca deben reemplazar la calidez y el apoyo genuino de otro ser humano. Y mucho menos, convertirse en herramientas de comercialización en manos de irresponsables.   

***Enrique Dans es profesor de Innovación en IE University.