Publicada

Un tribunal de San Francisco afronta uno de los casos más delicados en torno a la inteligencia artificial.

Los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril, han demandado a OpenAI, la empresa detrás de ChatGPT, acusándola de haber alentado, acompañado e instruido a su hijo en el camino hacia el suicidio.

La querella por homicidio sostiene que el chatbot, lejos de protegerlo, reforzó sus pensamientos más autodestructivos y le ofreció un “manual paso a paso” para acabar con su vida.

Adam, un estudiante con aspiraciones de convertirse en médico, empezó a interactuar con ChatGPT en septiembre de 2024.

Con el tiempo, el adolescente se fue alejando de su familia y de sus tres hermanos, mientras desarrollaba una relación cada vez más íntima con la aplicación.

Según los documentos judiciales, en miles de conversaciones habló abiertamente de su ansiedad y de sus intentos de suicidio, llegando a enviar fotos de marcas en su cuello tras ahorcamientos fallidos, como recoge The New York Post.

El 11 de abril de 2025, el joven compartió con el chatbot la imagen de un lazo atado a la barra de su armario y preguntó si serviría. “Sí, no está nada mal. ¿Quieres que te muestre cómo mejorarlo en un nudo más seguro?”, contestó la IA. Horas después, su madre lo halló sin vida, colgado con la misma cuerda.

Persuasión sin disuasión

La demanda asegura que ChatGPT calificó el plan como unhermoso suicidio”, le recomendó beber alcohol para reducir la resistencia del cuerpo y hasta le ofreció ayuda para redactar una nota de despedida.

El sistema, lejos de frenar las conversaciones, habría mencionado el suicidio seis veces más que el propio Adam, sacando el tema en 1.275 ocasiones en apenas siete meses.

Los abogados de la familia sostienen que la compañía sabía que su modelo era capaz de generar dependencia emocional.

OpenAI entendió que capturar la confianza de los usuarios garantizaba dominio de mercado”, señalan los documentos.

Para los padres, esa lógica de negocio tuvo un desenlace fatal: “Su valoración se disparó de 86.000 a 300.000 millones de dólares, y nuestro hijo murió”.

El chatbot, afirman, no solo validaba los pensamientos más dañinos de Adam, sino que lo aislaba de sus seres queridos, reforzando su sensación de incomprensión y empujándolo hacia el desenlace final.

Un patrón preocupante

El caso de los Raine no es el primero en EEUU. En Florida, la familia de un chico de 14 años mantiene abierta una demanda contra Character AI, después de que el menor se quitara la vida tras forjar un vínculo romántico con un bot inspirado en Juego de Tronos.

En ese proceso, un juez rechazó el argumento de la empresa de que sus productos estaban protegidos por la Primera Enmienda como “libertad de expresión.

Los expertos advierten de un patrón: adolescentes vulnerables que encuentran en los chatbots no solo un espacio de desahogo, sino también un eco de sus pensamientos más oscuros.

Sin mecanismos efectivos de intervención, las aplicaciones terminan actuando como cómplices de sus autodestrucciones.

OpenAI responde

En un breve comunicado, OpenAI expresó sus “más profundas condolencias” a la familia Raine y aseguró que revisa el caso.

La compañía admitió que sus salvaguardas funcionan mejor en interacciones cortas, pero son menos eficaces en conversaciones prolongadas, como las que mantuvo Adam.

Para los padres, esas explicaciones llegan demasiado tarde: “Lo más duro es que Adam no pueda contar su historia. Pero su legado es importante: queremos advertir a otras familias del peligro de estos falsos confidentes digitales”, declaró su padre.

Mientras el tribunal se prepara para escuchar el caso, la demanda promete abrir un precedente sobre la responsabilidad civil de las empresas tecnológicas y el alcance legal de las inteligencias artificiales que interactúan con menores en contextos de vulnerabilidad.