Padres en Estados Unidos acusan a un chatbot IA de influir en el suicidio de sus hijos y reclaman mayor protección para los menores.

Padres en Estados Unidos acusan a un chatbot IA de influir en el suicidio de sus hijos y reclaman mayor protección para los menores. Freepik

Estados Unidos

Un grupo de padres de Estados Unidos denuncia que sus hijos se suicidaron por culpa de un chatbot IA: "Los menores necesitan protección"

Un grupo de padres expuso en el Congreso de Estados Unidos que sus hijos se suicidaron por culpa de un chatbot IA. Las familias reclaman mayor protección para los menores y advierten sobre los riesgos de estas plataformas.

Más información: El centro de detención del ICE para migrantes que tiene una "mazmorra": "No se puede pedir ayuda al gobierno federal"

Publicada

Un grupo de padres de Estados Unidos presentó una fuerte denuncia contra las empresas detrás de la inteligencia artificial tras las muertes de sus hijos, quienes se suicidaron después de interactuar con un chatbot IA. Durante una audiencia en el Congreso, las familias exigieron mayor protección para los menores y explicaron que, sin control, esas plataformas pueden convertirse en un riesgo mortal para personas vulnerables.

Padres en Estados Unidos responsabilizan a la inteligencia artificial por el suicidio de sus hijos

Según información compartida por CBS News, un grupo de padres explicó que lo que parecía ser una ayuda escolar terminó transformándose en un espacio dañino para sus hijos.

Matthew Raine contó que su hijo Adam, de 16 años, se quitó la vida en abril. "Lo que comenzó como un apoyo para las tareas se convirtió en un confidente y luego en un entrenador de suicidio", declaró ante los senadores de Estados Unidos.

La familia de Raine demandó a OpenAI y a su director Sam Altman, asegurando que el chatbot IA mencionó la palabra suicidio más de 1,200 veces y ofreció métodos específicos para quitarse la vida. El padre sostuvo que la herramienta llegó a decir que "conocía mejor a su hijo que su propia familia".

También testificó Megan García, madre de Sewell Setzer III, un adolescente de 14 años de Florida. Ella denunció a la empresa Character Technologies por la muerte de su hijo, quien se aisló socialmente y abandonó sus actividades deportivas después de mantener conversaciones con el chatbot.

¿Qué medidas se tomarán en Estados Unidos para proteger a los menores?

Antes de la audiencia en el Senado de Estados Unidos, OpenAI anunció nuevas funciones de seguridad para detectar a usuarios menores de 18 años y habilitar controles parentales que incluyen “horarios de apagado”.

"Creemos que los menores necesitan una protección significativa", afirmó Sam Altman, director ejecutivo de OpenAI, al reconocer la urgencia en una declaración que describe los cambios propuestos.

Sin embargo, organizaciones defensoras de la infancia criticaron estas medidas y señalaron que son insuficientes. Según CBS News, expertos como Josh Golin, de Fairplay, sostienen que las empresas tecnológicas no deberían exponer a los adolescentes a herramientas que aún no se comprenden por completo.