Publicada

No es un misterio que una buena parte del mundo está obsesionada con ChatGPT. En España y en el resto del planeta los usuarios lo usan para redactar correos y buscar información, pero también presenta peligros de cara a unos jóvenes cada vez más influenciables.

OpenAI, la empresa liderada por Sam Altman y responsable directa de ChatGPT, lo sabe. Y por ello ha lanzado una serie de medidas para crear una especie de versión del chatbot para usuarios menores de 18 años.

En un comunicado, OpenAI detalla los que Altman llama "principios", siendo uno de ellos la protección de los adolescentes. Por ende, se aplicarán medidas que sin ir más lejos aplicarán una serie de normas especiales para ellos.

ChatGPT será más seguro para los jóvenes

Lo primero que destaca Altman respecto a ChatGPT y los adolescentes es la separación entre los usuarios menores de 18 años. Recuerdan desde OpenAI que esta IA está específicamente pensada para mayores de 13 años.

Altman explica que desarrollarán un sistema de predicción de edad seguramente basado en inteligencia artificial que dependiendo del uso que se le dará al chatbot, determinará la edad del usuario.

ChatGPT en un montaje fotográfico. Reuters Reuters

"En caso de duda, optaremos por lo seguro y usaremos la experiencia para menores de 18 años. En algunos casos o países, también podríamos solicitar una identificación", detalla el comunicado de Altman.

Se aplicarán por otro lado otras normas a los usuarios que tengan dicha "experiencia" respecto a los adultos que usen los servicios de OpenAI, que se unirán a las normativas ya existentes.

ChatGPT quedará totalmente inutilizado para tener conversaciones picantes o flirteos, y tampoco podrá hablar de ciertos temas como autolesiones o suicidio, "incluso en un entorno de escritura creativa", dice Altman.

Si el sistema detecta que el usuario menor de 18 años está expresando ideas suicidas, desde OpenAI "intentarán" contactar con los padres o con las autoridades pertinentes para evitar el problema de facto.

ChatGPT.

La compañía de inteligencia artificial también expresa su visión en otros dos principios, no faltos de polémicas. Uno de ellos es la llamada libertad, tan cacareada en Estados Unidos bajo el mandato de Trump.

Si bien ChatGPT no podrá ofrecer de normal conversaciones picantes o insinuantes, si el adulto lo solicita de forma clara, este "debería obtenerlo". Por supuesto, estas conversaciones incluyendo las más delicadas tendrán un nivel mayor de protección.

"El modelo, por defecto, no debería proporcionar instrucciones sobre cómo suicidarse, pero si un usuario adulto solicita ayuda para escribir una historia de ficción que retrata un suicidio, el modelo debería ayudarle con esa solicitud", aclara el CEO.

Todos estos principios, al menos los referentes a los adultos, seguirán el mantra de "tratar a nuestros usuarios adultos como adultos", lo que equivale a ampliar la libertad al máximo "sin causar daño ni socavar la libertad de nadie".

Está por ver cómo estas nuevas formas de protección afectarán a unos jóvenes cada vez más proclives a usar ChatGPT como asesor emocional. Una práctica que muchos expertos coinciden en que no es recomendable.

Especialmente si es un sustitutivo de un profesional de la salud como un psicólogo, capaz de entender las aristas de la personalidad humana. En este sentido, ya se han dado casos de adolescentes que se han quitado la vida debido a estas cuestiones.