Ilustración de un menor jugando con una herramienta de inteligencia artificial

Ilustración de un menor jugando con una herramienta de inteligencia artificial M.S-Gemini Omicrono

Tecnología

El reto de cómo los menores se relacionan con la IA: "Pierden la capacidad de hacer análisis o resumir información"

Agrupaciones de padres denuncian la falta de barreras que impidan que sus hijos traten sobre sexualidad o salud mental con la IA, entre otros peligros.

Más información: El ambicioso plan de Mark Zuckerberg: añadir más contenido generado por IA a todas sus redes sociales

Publicada

Mientras Elon Musk confirma su intención de lanzar 'Baby Grok', un nuevo modelo de IA diseñado para los más pequeños, Sam Altman aplica en ChatGPT controles parentales a sus modelos. La industria, centrada en el desarrollo de la inteligencia artificial, aborda diferentes maneras para acercar la IA a los más jóvenes.

La pregunta que flota en el aire es ¿si esta tecnología es segura para los más jóvenes? Un grupo de padres de Estados Unidos presentó una denuncia contra las empresas detrás de esta tecnología tras las muertes de sus hijos, quienes se suicidaron después de interactuar con un chatbot IA.

Estos casos han servido para impulsar la creación de  un proyecto de ley en el país americano que obligue a tomar medidas estrictas contra las empresas tecnológicas que ponen a disposición de menores chatbots de inteligencia artificial sin un marco seguro.

Imagen de archivo de unos jóvenes 'pegados' a sus móviles.

Imagen de archivo de unos jóvenes 'pegados' a sus móviles.

Mientras, en España, el Congreso ha dado luz verde a la tramitación de la ley orgánica que protegerá a los menores en los entornos digitales. Además de aumentar la edad mínima para abrirse una cuenta en redes, se tipifican los deepfakes de contenido sexual o gravemente vejatorios como un contenido contra la integridad moral.

Los principales riesgos de la IA

Precisamente, los deepfakes que pueden generar las herramientas basadas en inteligencia artificial generativa son una de las principales preocupaciones de los menores en España. Según el estudio presentado en septiembre por Plan Internacional, un 83% de las chicas y un 72% de los chicos les preocupa que se utilicen sus imágenes para hacer vídeos sexuales falsos.

Ya se conocen casos de este tipo, una familia de una adolescente estadounidense ha demandado a la empresa AI/Robotics Venture Strategy 3, como responsable de la aplicación con la que se generaron desnudos falsos a partir de las fotos de la menor.

La encuesta de Plan Internacional se desarrolló con 3.500 chicas y chicos de entre 12 y 21 años. Solo el 14% de los encuestados dice no haber utilizado esta tecnología durante el último mes, pues el 60% reconoce usarla como apoyo para sus estudios, pero un 18% de las chicas y un 12% de los chicos recurre a ella para hablar y contarle sus cosas, un porcentaje que aumenta hasta el 24% en las chicas de 17 a 21 años.

Este es uno de los principales riesgos detectados en esta nueva tecnología que en poco tiempo ha llegado a toda clase de servicios y plataformas. "Los jóvenes consideran que siempre es mejor recurrir a un amigo o un adulto para consultarle sus cosas, pero acuden a ella para hablar en situaciones en las que no saben o no tienen a quién consultarle determinados temas", explica a EL ESPAÑOL-Omicrono, Julia López, gerente de Incidencia e Investigación de Plan Internacional.

Gemini en Pixel 9a

Gemini en Pixel 9a Chem El Androide Libre

El proyecto de ley que se está desarrollando en Estados Unidos exigiría a las empresas de IA implementar un proceso de verificación de edad y les prohibiría proporcionar asistentes virtuales a menores. Asimismo, obligaría a los asistentes virtuales a revelar periódicamente a todos los usuarios su condición no humana y la falta de credenciales profesionales.

La confusión de estas máquinas con un ser vivo consciente y empático es habitual, incluso para los usuarios de mayor edad. Jorge Flores, fundador y presidente de Pantallas Amigas, recuerda el riesgo que tienen los asistentes virtuales o los chatbots con personalidad: "esos personajes que podemos crear y que pueden pretender sustituir las relaciones sociales o el acompañamiento emocional".

Falta de desarrollo de agilidad cognitiva: "La pérdida de capacidad de analizar información, hacer análisis complejos, seleccionar o resumir, cuando delegamos en uno de estos conversadores", explica Flores de Pantallas Amigas. "En torno al 30% nos decían que lo usan para no dedicarle tanto esfuerzo a los deberes, aunque también ven el riesgo de que la IA te puede volver un poco vago, un poco tonto", explica Julia.

Restricciones necesarias

"La IA es todavía un ámbito muy nuevo en el que como siempre la regulación va a venir después de la detección de problemas", explica Julia López. "Tenemos que aplicar un criterio conservador, principalmente cuando incluso los adultos nos estamos enfrentando a algo muy nuevo y rápido", añade Jorge Flores.

Desde Plan Internacional apuestan por la educación como base de todo, "que los jóvenes tengan las competencias para hacer un uso seguro, responsable, ético de estas herramientas, pero también para las familias y docentes que tienen que acompañarles en ese uso".

Esta organización considera que es necesario fortalecer las obligaciones normativas de los operadores privados para que se respeten los derechos digitales de los niños, las niñas y los adolescentes. Piden medidas como el etiquetado de los contenidos generados por IA, así como la detección y eliminación de contenidos nocivos o ilícitos. "No puede ser que tengamos que averiguar si una imagen es real o falsa", asegura López.

Otro nivel clave es la limitación del acceso de los menores con "sistemas robustos y auditables de verificación de edad para acceder a redes sociales y plataformas en general". Medidas que deben aplicar sin comprometer su privacidad y con un cuidadoso procesamiento de los datos personales.

Control parental de OpenAI

La respuesta de OpenAI al escándalo fue la actualización de su chatbot para que el modelo tenga más en cuenta el estado emocional del usuario a la hora de responder. Además, han establecido controles parentales con los que los padres o tutores pueden vincular su cuenta a la del menor ( entre 13 y 18 años)

De esta forma, los adultos podrán controlar la cantidad de tiempo que el menor pasa usando ChatGPT, configurar el horario de uso y desactivar funciones como el modo de voz o la generación de imágenes. Aunque el cambio más relevante está en las alertas ante un lenguaje delicado.

Una persona escribiendo a ChatGPT

Una persona escribiendo a ChatGPT iStock Omicrono

Si el menor introduce 'prompts' o instrucciones a ChatGPT relacionadas con las autolesiones o con el suicidio, los padres o tutores recibirán una notificación de manera automática de que su hijo o hija podrían estar en peligro.

Un detalle muy importante es que estas notificaciones no están generadas por la inteligencia artificial, sino por un equipo de empleados humanos que revisará el contenido y decidirá si es necesario avisar a los padres. Esto asegura la respuesta, pero puede ralentizarla. Los avisos se realizarán por SMS, correo electrónico, o por notificación en la app de ChatGPT, "de cualquier manera que podamos".

Eso sí, el contenido de la notificación no incluirá el mensaje que ha generado el aviso para proteger la privacidad del menor. La notificación también incluirá consejos y estrategias para que los padres hablen con su hijo sobre este tema, que han sido obtenidos de expertos en el campo de la salud mental.

No obstante, los expertos recuerdan que con esto no es suficiente. "La experiencia en Pantallas Amigas, donde llevamos más de 20 años, nos dice que los controles parentales son una ayuda, pero nunca son suficientes, porque pueden producir el efecto adverso de pensar que con ellos eliminamos los riesgos", aclara en la entrevista Jorge Flores.