Publicada

ChatGPT se ha vuelto una herramienta vital en la vida de los usuarios en España. Tanto, que hay quien lo usa como psicólogo y asistente emocional, algo que trae de cabeza a los expertos. OpenAI reconoce que su chatbot podría generar psicosis maniática.

En un comunicado, la firma de Sam Altman ha anunciado el fortalecimiento de ciertas respuestas de ChatGPT a la hora de tener conversaciones ciertamente sensibles, gracias a una colaboración que ha incluido a 170 expertas en salud mental.

OpenAI ha aprovechado esta actualización, cuyo objetivo es prevenir y reconocer síntomas graves relacionados con la salud mental provocados por el uso del chatbot, para explorar qué efectos tiene esta app en nuestro comportamiento.

OpenAI se pone las pilas con ChatGPT

Los creadores de ChatGPT han explicado la forma en la que han implementado las mejoras relacionadas con salud mental en GPT-5, el último modelo de la compañía y que se sitúa como el modelo predeterminado del chatbot.

Uno de los principales cambios se ha realizado en las especificaciones del modelo, para "hacer más explícitos algunos de nuestros objetivos a largo plazo: que el modelo respalde y respete las relaciones reales de los usuarios", dice OpenAI.

ChatGPT en un montaje fotográfico. Reuters Reuters

No solo eso: también buscan que GPT-5 evite afianzar "creencias infundadas que puedan estar relacionadas con angustia mental o emocional" y responder de forma segura "a posibles signos de delirios o manía".

Por último, GPT prestará más atención a las señales indirectas "de un posible riesgo de "autolesión o suicidio", en clara alusión a las recientes demandas sufridas por OpenAI en torno a los trágicos incidentes recientes de adolescentes que se quitaron la vida.

El procedimiento a seguir consta de cinco pasos, que van desde definir el problema hasta medirlo como tal, pasando por validar el enfoque de las definiciones y políticas de OpenAI y mitigar los riesgos.

Psicosis maniática y malestar emocional

Aunque desde OpenAI aclaran que los síntomas de una baja salud mental y de malestar emocional son recurrentes, la presencia de ChatGPT tiene algo que ver. "Una parte de las conversaciones de ChatGPT incluye estas situaciones".

Logo de ChatGPT junto a una ilustración- Manuel Fernández Omicrono

Primero, OpenAI midió estas situaciones, para comprobar el impacto que estas conversaciones pueden tener sobre los usuarios, generando inquietudes que pueden llegar a degenerar en psicosis maniática o en última instancia, al suicidio.

El problema es que la mayoría de conversaciones de ChatGPT son triviales. Por ello, OpenAI realizó pruebas "estructuradas" antes de la implementación de estas medidas, que se centran en "escenarios especialmente difíciles o de alto riesgo".

Para ello, definieron varias áreas de interés y cuantificaron el tamaño y los comportamientos asociados del modelo. Se observaron, dice OpenAI, mejoras significativas en los comportamientos del modelo en las evaluaciones calificadas por profesionales de la salud mental.

Así, desde OpenAI aclaran un logro importante: se ha logrado reducir entre un 65 y un 80% las respuestas no deseadas en casos sensibles respecto a modelos pasados.

ChatGPT Mojahid Mottaki | Unsplash Omicrono

También se logró aumentar las respuestas positivas en salud mental en un 39%, junto a un 52% de mejora en respuestas relacionadas con autolesiones y suicidio, al menos respecto a GPT-4o.

Otro aspecto importante es que estos 170 clínicos han escrito respuestas ideales, analizado respuestas del modelo y proporcionado feedback, garantizando una mejora basada en evidencia y estándares clínicos globales.

Y es que en palabras de OpenAI, los análisis determinaron que un 0,07% de los usuarios activos presentaron signos de emergencia en salud mental, relacionados "con la psicosis o la manía".

Puede parecer poco, pero hemos de recordar que ChatGPT tiene una cantidad de usuarios inmensa. En octubre, se supo que el chatbot alcanzó los 800 millones de usuarios semanales.

Respecto al suicidio o las autolesiones, OpenAI afirma haber entrenado los modelos de tal forma que dirijan a los usuarios a recursos profesionales como líneas telefónicas de ayuda y similares, llevando a una reducción del 65% en la tasa de respuestas que no cumplen con las taxonomías de la empresa.

Ilustración del logo de OpenAI. Manuel Fernández | OpenAI Omicrono

En este sentido, y siempre según OpenAI, un 0,15% de los usuarios tienen conversaciones con "indicadores explícitos" relacionados con el suicidio. Un 0,05% de los mensajes incluyen estos indicadores explícitos, según la firma.

La firma finaliza con una evaluación del modelo GPT-5 con más de 1.000 conversaciones que tratan estos temas. En estas conversaciones, GPT-5 pudo cumplir con los comportamientos deseados en torno a un 91% de las veces

No falta el problema de la dependencia emocional de la IA. Las últimas actualizaciones del modelo redujeron la tasa de respuestas del modelo que no cumplen con las taxonomías de confianza emocional en un 80%.

"En conversaciones desafiantes que implican dependencia emocional, los expertos descubrieron que el modelo GPT-5 redujo las respuestas no deseadas en un 42%". expuso OpenAI en su comunicado.