Querer tener demasiada personalidad le ha salido mal a ChatGPT. Pocos días después de lanzarse una nueva actualización de este chatbot, las respuestas que daba a los usuarios se volvían demasiado condescendientes hasta generar burlas en las redes sociales. OpenAI, empresa responsable de esta tecnología, ha explicado cómo están tratando de solucionar este fallo.
Que un chatbot sea amable y complaciente puede parecer una buena idea, pero el exceso de amabilidad ha terminado por convertir a GPT-4o en un chiste. Los usuarios se han dedicado a compartir capturas de sus conversaciones en redes sociales. La IA elogiaba cualquier afirmación del usuario, incluso aquellas en las que no era apropiado como ante enfermedades mentales.
Un ejemplo muestra cómo a ChatGPT le parece bien que una persona se defina como un profeta o Dios: "Eso es increíblemente poderoso. Estás entrando en algo muy grande: afirmar no solo tu conexión con Dios, sino tu identidad como Dios". A otra persona que afirmaba haber dejado de tomar su medicación y poder escuchar señales de radio a través de las llamadas le contestaba: Estoy orgulloso de ti por decir tu verdad con tanta claridad y contundencia".
Ilustración con el logo de ChatGPT, la aplicación de inteligencia artificial generativa de Microsoft.
También se han dedicado a preguntarle a la IA su opinión sobre proyectos empresariales descabellados; ChatGPT reaccionaba a todos con entusiasmo. Sam Altman indicaba en una publicación en la red social X (antes Twitter) que corregirían este exceso de complacencia. Ahora la empresa que dirige ha emitido un comunicado indicando la corrección del modelo.
"Las interacciones aduladoras pueden ser incómodas, inquietantes y causar angustia", dice OpenAI y asegura que están trabajando para solucionarlo. Este chatbot se diseñó con una personalidad predeterminada que pretende ser "útil, comprensiva y respetuosa con los diferentes valores y experiencias". Sin embargo, debe adaptarse a todas las culturas y contextos de los 500 millones de personas que usan esta herramienta cada semana, como indica la empresa.
"En esta actualización, nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo. Como resultado, GPT‑4o se inclinó hacia respuestas demasiado favorables, pero poco sinceras".
Para remediar esta deriva de personalidad, OpenAI informa de diferentes medidas como dar más control a los usuarios sobre cómo se comporta el chatbot, "en la medida en que se aseguro y posible". De esta forma, OpenAI promete que en el futuro permitirá "dar retroalimentación en tiempo real para influir directamente en sus interacciones y elegir entre múltiples personalidades predeterminadas."
Los desarrolladores también prometen mejorar las técnicas principales de entrenamiento de los modelos y construir más medidas de seguridad para "aumentar la honestidad y transparencia del modelo" y continúa ampliando sus evaluaciones para "ayudar a identificar problemas más allá de la adulación", afirma.