La escena es conocida: una voz suave, sin cuerpo, responde desde un dispositivo. Quien la escucha no puede evitar imaginar gestos, intenciones, quizá incluso emociones. La inteligencia artificial, pese a ser un conjunto de modelos matemáticos, termina por convertirse en “alguien”. No es un fallo cognitivo aislado, es parte de una tendencia humana profundamente arraigada.
El acto de otorgar características humanas a lo no humano -la antropomorfización- es tan antiguo como las primeras mitologías. Tal como explica el psicólogo Nicholas Epley en Mindwise: Why we misunderstand what others think, believe, feel and want (2015), los humanos antropomorfizan por tres razones principales: la búsqueda de intencionalidad, la necesidad de conexión social y la tendencia a usar nuestro propio modelo mental como “plantilla” para interpretar el mundo.
Las máquinas actuales, con voces cálidas, nombres propios y respuestas conversacionales, activan estos mecanismos automáticos. “Es más fácil tratar a un ente complejo como a otro humano que reconstruir desde cero cómo funciona”, apunta Epley.
¿Es inteligencia?
La paradoja es clara: cuanto más inmaterial es una entidad, más elaborada tiende a ser la proyección humana. En la interacción con inteligencias artificiales, que no poseen emociones, corporalidad ni subjetividad, esta proyección se amplifica.
“Desde el ámbito científico y académico se critica mucho que se le diera ese nombre en la fundación de la disciplina, que se le llamara inteligencia artificial, porque es un nombre engañoso. En realidad, solo son sistemas de procesamiento complejo de información”, apunta Esther Paniagua, periodista y autora especializada en ciencia, tecnología y ciberseguridad.
La investigadora Sherry Turkle, en su libro Alone Together: Why we expect more from technology and less from each other (2011), describe cómo la mera apariencia de reciprocidad emocional es suficiente para que las personas atribuyan cualidades humanas a sistemas algorítmicos. No se necesita un robot con forma humanoide, basta un texto bien formulado o una voz sintética.
Hollywood como espejo
El cine ha explorado esta tendencia mucho antes de la llegada de los chatbots modernos. Películas como Her (Spike Jonze, 2013) muestran una relación afectiva con un sistema operativo sin cuerpo. Samantha, la IA protagonista, es una voz. Sin embargo, el espectador (como el protagonista) la siente “presente”. La película no funciona sin la predisposición natural a humanizar que existe en cada uno de nosotros.
Imagen de la película Her (2013) del director Spike Jonze.
En Ex Machina (Alex Garland, 2014), la IA Ava sí posee un cuerpo. Pero su apariencia física sirve más como catalizador de la proyección humana que como mecanismo funcional. Garland muestra que, incluso si la IA no siente, el humano está dispuesto a llenar ese vacío con sus propias emociones.
Más atrás en el tiempo, 2001: A Space Odyssey (Stanley Kubrick, 1968) ya planteaba a HAL 9000 como un ente emocional pese a ser una cámara y una voz. Su tono calmado y su lenguaje cuidadoso llevaron al público a interpretarlo como un personaje con motivaciones y rasgos humanos.
Ilusión de conexión
El antropólogo Stewart Guthrie, en su obra Faces in the Clouds (1993), defiende que la antropomorfización es una estrategia adaptativa: es mejor asumir que algo tiene intención (aunque no la tenga) que pasar por alto una intención real. Al enfrentarse a sistemas complejos como la IA, el cerebro prefiere “ver” emociones o voluntad antes que aceptar la abstracción matemática.
Este fenómeno explica por qué las personas tienden a disculparse con asistentes digitales, atribuir humor a un algoritmo o percibir una personalidad en sistemas de recomendación. Incluso hay quien siempre comienza sus prompts con un “por favor” y termina con un “gracias”, en caso de que los robots tomen el control.
Fer Berdugo, formador de IA (Copilot ROI advisor en EMEA): “El ser humano intenta antropomorfizar la IA para darle un toque más humano y familiar. Yo siempre lo comparo con los dibujos animados de Disney. Ponemos a ratones, patos o perros a hacer cosas de humanos. Surge de la idea de hacerlos más comprensibles para todos”.
“Sin embargo, esta proyección no solo simplifica la realidad al ocultar la verdadera naturaleza impersonal y probabilística de estas tecnologías; sino que también revela nuestra vulnerabilidad cognitiva: preferimos la ilusión de conexión emocional antes que confrontar la frialdad de lo no humano, perpetuando así un ciclo de proyecciones que moldea tanto nuestra percepción como el diseño mismo de las entidades”, continúa.
Fer Berdugo, formador de IA.
El riesgo de la proyección
Aunque común e incluso inevitable, esta práctica no está exenta de riesgos. La filósofa Kate Darling advierte en su libro The New Breed: What our history with animals reveals about our future with robots (2021) que estas proyecciones pueden generar expectativas erróneas sobre las capacidades reales de las máquinas, atribuirles responsabilidad moral o incluso desplazar vínculos humanos.
La falsa equivalencia entre conversación fluida y comprensión real es uno de los puntos más sensibles. La IA puede construir lenguaje, pero no posee conciencia, emociones ni experiencias subjetivas. Confundir simulación con intención puede influir en decisiones personales y sociales.
En la opinión de Esther Paniagua: “Es para cubrir necesidades que tenemos, por ejemplo, de soledad, de acceso, en caso de psicólogo, de acceso a terapias, de disponibilidad. Si tengo un problema de salud, es mucho más rápido y fácil preguntar al chatbot que pedir cita con el médico. Además según en qué sitio, a lo mejor ni siquiera tengo la opción, o estoy muy lejos, o me cuesta dinero porque vivo en tal país. Entonces, estos sistemas los usamos, los antropomorfizamos, para cubrir carencias que tenemos a nivel social, y que no estamos solucionando a un nivel sistémico”.
¿Podemos dejar de hacerlo?
La evidencia indica que no del todo. El impulso a humanizar lo no humano está profundamente ligado a nuestra forma de pensar. Pero sí es posible tomar conciencia del mecanismo, cuestionar nuestras proyecciones y mantener una relación crítica con sistemas que, por más sofisticados que sean, no dejan de ser herramientas.
La IA no nos pide que la humanicemos. Somos nosotros quienes, frente al vacío de la abstracción tecnológica, le damos una identidad.
