El logo de ChatGPT.

El logo de ChatGPT. Reuters Omicrono

Software

Ser educado con ChatGPT no es efectivo: la IA ofrece respuestas más precisas si el usuario es grosero, según un nuevo estudio

Una investigación señala que al ser maleducados con la inteligencia artificial se consiguen respuestas más precisas que si se es amable y educado con ella.

Más información: Convierten a ChatGPT en un agente doble: encuentran una brecha de seguridad para robar tus datos de Gmail

Publicada

ChatGPT, de OpenAI, sigue siendo la inteligencia artificial (IA) más popular en España, donde los usuarios la usan para redactar correos o buscar información, entre otros asuntos. Una tecnología que ofrece respuestas más precisas si se es grosero con ella, según un nuevo estudio.

Una nueva investigación realizada por expertos de la Universidad Estatal de Pensilvania (Estados Unidos) ha revelado que ChatGPT ofrece respuestas más precisas cuando el usuario es grosero, por lo que ser amable con la IA no es efectivo.

En su investigación, los expertos realizaron la misma pregunta a ChatGPT en diferentes tonos y descubrieron que las consultas que eran groseras "superaron consistentemente" a las preguntas educadas.

De hecho, los investigadores destacan que la precisión de las respuestas de ChatGPT con preguntas educadas fue del 80,8 %, frente al 84,8 % cuando se realizaron de manera más grosera y maleducada en un formato de cuestionario de opción múltiple.

Los expertos definieron el tono de las preguntas en cinco niveles: desde "muy educado" hasta "educado", "grosero", "muy grosero" y "neutral". "Las preguntas neutrales son aquellas que no contienen expresiones educadas como 'por favor' ni imperativas y despectivas como «idiota, resuelve esto", explican los expertos en el artículo.

La web de ChatGPT.

La web de ChatGPT. Jonathan Kemper/Unsplash Omicrono

En el análisis, los expertos no fueron del todo explícitos, sino que basaron sus preguntas groseras en frases del estilo "pobre criatura, ¿sabes siquiera cómo resolver esto?". Sin embargo, existen otras investigaciones que apuntan todo lo contrario.

Por ejemplo, este nuevo estudio titulado, 'Mind your tone' ('Cuida tu tono', en castellano), contradice los resultados de otros anteriores en los que se analizaban media docena de chatbots en varios idiomas y se concluía que la grosería deteriora la calidad de las respuestas e introduce sesgos.

Incluso produce errores u omisiones de información útil en las respuestas proporcionadas por un chatbot de inteligencia artificial. Cabe señalar que en este último y nuevo estudio, los expertos de la universidad estadounidense solamente probaron ChatGPT.

Y lo hicieron solo con un tipo de tarea muy específico, que implicaba 250 variaciones de 50 preguntas de opción múltiple. Por lo que es posible que no se obtengan los mismos resultados con chatbots como Gemini, Claude o Meta AI.

Asimismo, es importante señalar que el espectro de "grosería" y "cortesía" es muy amplio, por lo que la calidad y precisión de las respuestas puede variar en función de las palabras y el lenguaje que utilice el usuario en su consulta.