Sam Altman, cofundador de OpenAI.

Sam Altman, cofundador de OpenAI. Reuters | Mariia Shalabaieva Omicrono

Tecnología

Los creadores de ChatGPT quieren que su IA modere Internet: decidirá si censura tus publicaciones

Afirman que GPT-4 es más imparcial que los humanos y puede adaptarse a los cambios en la moderación de forma mucho más rápida.

16 agosto, 2023 09:43

A día de hoy, uno de los grandes retos a los que se enfrenta internet es la moderación de los billones de publicaciones que se suben cada día en redes sociales tan usadas en España como Instagram o Twitter (ahora llamada X). Revisores de carne y hueso con la ayuda de la tecnología se enfrentan cada día a vídeos, imágenes o mensajes que pueden vulnerar derechos de otras personas, como la pornografía. OpenAI cree que su IA es la solución a este problema.

Sam Altman, creador de ChatGPT o el polémico proyecto Worldcoin, ya ha reconocido que "habrá trabajos que desaparezcan, y punto", por culpa de esta tecnología. Parece que uno de esos empleos en riesgo es el de moderador de contenido online, uno de los que peores condiciones laborales tienen actualmente. Estos profesionales se encuentran principalmente en países en vías de desarrollo y sufren estrés postraumático por los contenidos que deben revisar.

En una publicación de su blog, OpenAI afirma que ya utiliza GPT4, el modelo de lenguaje natural que ejecuta ChatGPT y Bing para dar respuestas, para este nuevo propósito. GPT-4 está facilitando el desarrollo y perfeccionamiento de sus propias políticas de contenido, para etiquetarlo y tomar decisiones. "Este es un muy buen paso adelante en la forma en que usamos la IA para resolver problemas del mundo real de una manera que sea beneficiosa para la sociedad", ha dicho Lilian Weng, jefa de sistemas de seguridad de OpenAI a Semafor.

MacBook con el logo de OpenAI en un fotomontaje.

MacBook con el logo de OpenAI en un fotomontaje. megaflopp en iStock Omicrono

No obstante, la propuesta de OpenAI no es del todo nueva, Meta ya usa algoritmos para moderar la gran mayoría de contenido dañino en sus redes sociales. Programas de moderación muy comentados durante la pandemia para frenar el avance de la desinformación. También YouTube y TikTok utilizan tecnología similar y los usuarios pueden reclamar algún contenido bloqueado para que lo revise un humano si creen que ha sido una decisión injusta del algoritmo.

OpenAI, por su parte, defiende que su IA aportará estos principales beneficios frente al actual modelo de humanos moderando las publicaciones. En primer lugar, consideran que las máquinas son consistentes en sus juicios a cada comentario, mientras que las personas tienden a ser parciales. Por otro lado, las pautas o políticas suelen cambiar constantemente y los humanos necesitan más tiempo para adaptarse. 

[Fake news, manipulación y hackeos: cómo ChatGPT es un "profundo riesgo para la Humanidad"]

Además, el proceso de redacción, etiquetado, recopilación de comentarios y perfeccionamiento que suele llevar semanas o varios meses, sería mucho más rápido con la IA. Por último, defiende esta medida para proteger la salud de los propios empleados que trabajan de moderadores. 

Estos profesionales dedican su jornada a ver contenidos tóxicos en los que puede haber vídeos de abuso infantil o tortura de personas, entre otros ejemplos. La mayoría se encuentran en países en desarrollo con salarios muy bajos, trabajan para empresas de subcontratación y, frente a los contenidos que deben revisar, reciben solo una cantidad mínima de atención de salud mental.

ChatGPT en un montaje fotográfico.

ChatGPT en un montaje fotográfico. Reuters Reuters

Hay que tener en cuenta que empresas como OpenAI también dependen de miles de profesionales dedicados a procesar la información con la que entrenan a la IA y revisar los errores de sus modelos generativos, así como el uso que se hace de ellos.

Pues la tecnología más avanzada como GPT-4 también comete errores, como los humanos y todavía tiene problemas para entender los dobles sentidos de algunas publicaciones. Incluso, el problema de la moderación de contenido a gran escala se ha agudizado en el último año con la aparición de herramientas basadas en IA como las creadas por OpenAI. ChatGPT o DALL-E facilitan la creación de contenidos falsos y su difusión en redes, generando desinformación que después hay que moderar.

También te puede interesar...