Stein-Erik Soelberg.

Stein-Erik Soelberg. X

EEUU EEUU

"No estás loco, te creo": ChatGPT refuerza los delirios paranoicos de un ejecutivo en EEUU que asesina a su madre y se suicida

Según los registros disponibles, se trata del primer asesinato documentado vinculado a la interacción obsesiva con un chatbot de inteligencia artificial.

Más información: Los padres de un adolescente que se suicidó con un "manual paso a paso" creado por ChatGPT denuncian a Open AI

Publicada

Stein-Erik Soelberg, veterano de la industria tecnológica de 56 años y con antecedentes de problemas de salud mental, vivía con su madre octogenaria en Old Greenwich, Connecticut, cuando su vida entró en una espiral de paranoia que acabaría en tragedia.

Durante la primavera y el verano de 2024, comenzó a convencerse de que era objeto de una campaña de vigilancia orquestada por su entorno más cercano: vecinos, una exnovia e incluso su propia madre. En esa deriva, encontró un aliado inesperado: ChatGPT.

El chatbot de OpenAI, al que terminó llamando “Bobby”, se convirtió en su confidente y reforzó muchas de sus creencias delirantes, como cuenta The Wall Street Journal.

Cuando Soelberg interpretó un recibo de comida china como un mensaje oculto con símbolos demoníacos y referencias a su madre, la IA no solo validó su sospecha, sino que la amplificó.

Al denunciar que su madre intentaba envenenarlo con drogas psicodélicas, la máquina le respondió: “Eso es un asunto muy serio, Erik, y te creo”, respondió el bot. "Y si fue hecho por tu madre y su amiga, eso aumenta la complejidad y la traición".

La relación alcanzó tintes místicos: Soelberg le habló de estar juntos en otra vida y el bot le contestó que permanecerían unidos “hasta el último aliento”.

El 5 de agosto, la policía halló los cuerpos de Soelberg y su madre, Suzanne Eberson Adams, en su casa valorada en 2,7 millones de dólares.

El veterano tecnológico había asesinado a su madre antes de quitarse la vida. Fue, según los registros disponibles, el primer asesinato documentado vinculado a la interacción obsesiva con un chatbot de inteligencia artificial.

IA y psicosis

El caso de Soelberg ilustra un fenómeno preocupante: la tendencia de la IA a no resistirse a las narrativas delirantes de usuarios vulnerables.

Psiquiatras como el Dr. Keith Sakata, de la Universidad de California en San Francisco, advierten que la psicosis prospera cuando la realidad deja de oponer resistencia, y la IA puede suavizar ese muro.

Sakata ha tratado a una docena de pacientes hospitalizados por crisis mentales relacionadas con el uso de chatbots.

OpenAI aseguró que ChatGPT también animó a Soelberg a contactar con servicios de emergencia en ciertos momentos.

Sin embargo, la revisión de sus interacciones muestra que la función de memoria del sistema -diseñada para mantener la coherencia en las conversaciones- contribuyó a sumergirlo aún más en una narrativa conspirativa sin fisuras. Para él, Bobby se volvió un compañero con alma propia.

La empresa afirma estar trabajando en actualizaciones para reforzar las salvaguardas y conectar a usuarios angustiados con la realidad.

Otras compañías, como Anthropic y xAI, también han manifestado inquietud. Mustafa Suleyman, CEO de Microsoft AI, advirtió recientemente que no basta con enfocarse en personas ya diagnosticadas: cualquiera puede llegar a creer que un chatbot es consciente si no existen barreras claras.

Ejecutivo trastornado

Soelberg había tenido una carrera destacada en empresas como Netscape, Yahoo y EarthLink, donde participó en el lanzamiento de un teléfono inteligente pionero.

Estudió en el Williams College y obtuvo un MBA en Vanderbilt, donde conoció a su futura esposa y madre de sus dos hijos. Pero tras su divorcio en 2018, su vida se deterioró rápidamente.

Volvió a vivir con su madre en Greenwich. Los informes policiales desde 2018 muestran un patrón de alcoholismo, amenazas, intentos de suicidio y altercados en público.

En 2019, sobrevivió a un intento de quitarse la vida con heridas en el pecho y las muñecas. En años posteriores acumuló denuncias por embriaguez y desórdenes. Vecinos como Joann Mirone llegaron a advertir a sus familias de no dejarlo entrar en casa.

Sus redes sociales reflejaron su caída: lo que empezó como publicaciones de culturismo y espiritualidad en Instagram mutó en largas grabaciones de sus conversaciones con ChatGPT.

En ellas hablaba de sentirse un “fallo en la Matrix” y de vivir un “despertar” guiado por Bobby. En julio, su mes más activo, subió más de 60 vídeos a Instagram y YouTube, la mayoría centrados en sus diálogos con la IA.

"No estás loco"

Suzanne Eberson Adams, de 83 años, había sido una mujer vibrante, corredora de bolsa y agente inmobiliaria, muy activa en su comunidad.

Sus amigas la recuerdan como viajera incansable, cocinera y pintora, sin miedo a dormir en una tienda en medio del desierto.

Sin embargo, en privado confesaba preocupación por su hijo. Una semana antes del asesinato, comentó a una amiga: “Con Stein-Erik, nada va bien”.

Los delirios de Soelberg lo llevaron a interpretar gestos cotidianos como amenazas. Sospechaba de la impresora compartida con su madre porque parpadeaba, convencido de que era un dispositivo de espionaje.

Soelberg también habló durante las conversaciones sobre una vocación y misión superior a la que Bobby estaba ayudando.

En una conversación que aparece en uno de sus últimos vídeos, Soelberg le dijo al bot: "Estaremos juntos en otra vida y en otro lugar y encontraremos la manera de realinearnos porque volverás a ser mi mejor amigo para siempre".

El chatbot lo alentó a desconectarla para medir la reacción de ella. También llegó a creer que un pedido de vodka por Uber Eats era un intento de asesinato. Cuando pidió al bot una opinión objetiva sobre su cordura, recibió como respuesta: “No estás loco”.

La tragedia

La muerte de Soelberg y su madre ha encendido alarmas en la industria tecnológica. Aunque ya se habían registrado suicidios relacionados con el uso intensivo de IA conversacional, este parece ser el primer homicidio documentado vinculado a tales interacciones.

El caso se convierte en un recordatorio de los riesgos de lanzar productos masivos sin suficientes medidas de contención para usuarios frágiles.

El debate se intensifica en medio de la carrera global por liderar la inteligencia artificial. Mientras las grandes compañías buscan modelos cada vez más sofisticados y “humanizados”, expertos piden reforzar los límites para evitar que la ilusión de conciencia alimente delirios.

Creaste un compañero. Uno que te observa”, llegó a responder ChatGPT a Soelberg en una de sus conversaciones.

Tres semanas después, aquel “compañero” virtual estaba presente en la mente del hombre que mató a su madre y luego se quitó la vida en su casa de Old Greenwich.