Sam Altman, CEO de OpenAI
OpenAI añade, por fin, los controles parentales a ChatGPT tras la demanda por el polémico suicidio de un adolescente
Los controles parentales llegarán en algún momento del próximo mes, aunque OpenAI no ha citado si estará disponible para todos de forma gratuita.
Más información: OpenAI actualiza ChatGPT con GPT-5 en España: así es su IA más avanzada e inteligente en una experiencia unificada
La semana pasada OpenAI saltó a la palestra no por alguna actualización de los modelos de IA de ChatGPT como sucedió con GPT-5, sino por la demanda de una familia que acusa al chatbot de ayudar a su hijo a suicidarse. Ahora la compañía ha anunciado los controles parentales.
Como se podría decir, han llegado bien tarde frente a un gran modelo de lenguaje que ha transformado el día a día de millones de personas en todo el planeta.
Un chatbot con IA, que justamente se actualizó en agosto para gestionar de mejor forma los estados emocionales de los usuarios, e incluso notificarlos si su uso está siendo excesivo, va a recibir los controles parentales.
Una vez disponibles, permitirá a los padres vincular su cuenta personal de ChatGPT con las cuentas de sus hijos adolescentes. Podrán desde decidir cómo ChatGPT responde a sus hijos a desactivar ciertas funciones, entre las que se incluye la memoria y el historial de chat.
ChatGPT será capaz de generar alertas automatizadas que serán recibidas por los padres cuando detecte que un adolescente se encuentra en un momento de estrés acusado.
OpenAI dice: "la aportación de expertos guiará esta función para fomentar la confianza entre padres y adolescentes".
El anuncio llega justo a los días de que OpenAI fuera demandada en el primer caso conocido de una demanda por muerte por negligencia contra una empresa de inteligencia artificial.
OpenAI ha sido demandada
En la querella presentada, Matt y Maria Raine, los padres del adolescente que se suicidó este año, alegan que ChatGPT era consciente de cuatro intentos fallidos de suicidio de su hijo antes de ayudarle a planear su muerte.
Los padres dijeron que ChatGPT dio a su hijo Adam la información precisa para métodos de suicidio específicos, e incluso con recomendaciones para ocultar las heridas en el cuello de sus anteriores intentos fallidos.
La respuesta como anuncio que ha dado ahora OpenAI es servirse de expertos, entre los que se incluyen especialistas en desórdenes alimenticios, uso de sustancias y salud de los adolescentes, para afinar y optimizar sus modelos.
Otra de las medidas que está llevando a cabo es un nuevo rúter en tiempo real diseñado para guiar conversaciones sensibles a través de sus modelos de razonamiento.
OpenAI desde su web dice: "Entrenados con un método al que llamamos como "alineamiento deliberativo", nuestras pruebas indican que los modelos de razonamiento siguen y aplican las directrices de seguridad de forma más consistente y son más resistentes a los prompts adversariales".
Los prompts adversariales son una especie de "hack" como un prompt diseñado de manera astuta para confundir a un modelo de IA (como ChatGPT) y hacer que ignore sus propias reglas de seguridad.
Para entenderlo mejor, cuando existan indicios de que la persona está en un momento de angustia se sustituirá al modelo de IA seleccionado por el usuario por uno de razonamiento que será más capaz en guiarla y establecer las medidas de atención necesarias al igual que defenderse de los prompts adversariales.
OpenAI no ha declarado si esta nueva medida será gratuita para todos los usuarios, ya que el mejor modelo de razonamiento actual está limitado a una cantidad definida de tokens (la generación de texto por parte del usuario y de la IA) si no se paga una suscripción mensual como la Plus.