Mark Zuckerberg, CEO de Meta.

Mark Zuckerberg, CEO de Meta. Reuters Omicrono

Software

Meta sustituirá a empleados por IA para evaluar los riesgos de privacidad en WhatsApp, Instagram o Facebook

Un documento revela que el 90% de las revisiones de riesgos de privacidad de Meta pronto se automatizarán y serán los algoritmos quienes las supervisen.

Más información: Meta crea una inteligencia artificial que cambiará la comunicación: traduce 101 idiomas al instante de voz a voz

Publicada

Meta, que recientemente anunció su alianza con Anduril para crear cascos de realidad mixta para el Ejército de EEUU, planea sustituir a parte de sus empleados por inteligencia artificial (IA), según un nuevo documento interno.

Cuando la empresa de Mark Zuckerberg lanzaba nuevas funciones para Instagram, WhatsApp y Facebook, un equipo humano llevaba a cabo revisiones de privacidad e integridad de los usuarios. Algo que cambiará muy pronto.

Un documento interno de Meta, al que NPR ha tenido acceso, revela que hasta el 90 % de todas las evaluaciones de riesgos pronto se automatizarán. Es decir, esta tarea ahora la realizará la inteligencia artificial de la compañía.

Esto significa que en la práctica aspectos como las actualizaciones críticas de los algoritmos de Meta, las nuevas funciones de seguridad y los cambios en la forma en que se permite compartir contenido en sus aplicaciones serán aprobados en su mayoría por un sistema impulsado por IA.

Por lo que ya no serán unos trabajadores humanos quienes se encarguen de debatir cómo un cambio o una función en Instagram, WhatsApp o Facebook podría tener repercusiones imprevistas o puede ser mal utilizado.

La IA tomará decisiones

Este nuevo cambio está considerado dentro de Meta como una victoria para los desarrolladores de productos que ahora podrán lanzar actualizaciones y funciones para las aplicaciones con mayor rapidez. Aunque también genera incertidumbre y preocupación.

Y es que algunos empleados de Meta temen que el nuevo impulso a la automatización se produzca a costa de permitir que la inteligencia artificial tome decisiones delicadas sobre cómo las aplicaciones de Meta podrían causar daños en el mundo real, según el mismo medio.

El logo de Meta.

El logo de Meta. Reuters Omicrono

"En la medida en que este proceso significa funcionalmente que se lanzan más cosas más rápido, con un escrutinio y una oposición menos rigurosos, significa que se están creando mayores riesgos", señala al mismo medio un antiguo ejecutivo de Meta.

"Es menos probable que se puedan prevenir las externalidades negativas de los cambios en los productos antes de que empiecen a causar problemas en el mundo", continúa. Mientras que Meta señaló anteriormente en un comunicado que ha invertido miles de millones de euros para apoyar la privacidad de los usuarios.

El documento filtrado muestra que la empresa de Zuckerberg está planeando automatizar las revisiones de áreas sensibles, como la seguridad de la IA, los riesgos para los jóvenes y una categoría conocida como "integridad", que abarca aspectos como los contenidos violentos y la difusión de falsedades.

También se señala que en este nuevo proceso, y en la mayoría de casos, los equipos de producto recibirán una "decisión instantánea" impulsada por inteligencia artificial tras completar un cuestionario sobre el proyecto.

Una decisión que identificará las áreas de riesgo y los requisitos para abordarlas. Y antes del lanzamiento, el equipo de producto deberá verificar que se han cumplido dichas condiciones. Un proceso diferente al actual.

Hasta ahora las actualizaciones de productos y funciones no podían enviarse a miles de millones de usuarios hasta que recibieran la aprobación de los evaluadores de riesgos. Con este nuevo modelo, los ingenieros que crean los productos podrán emitir sus propios juicios sobre los riesgos.

Europa, un caso distinto

Eso sí, en casos como proyectos que implican nuevos riesgos, estos serán revisados manualmente por personas, según el documento filtrado. Pero no será lo habitual. Además, los usuarios de la Unión Europea podrían estar algo aislados de estos cambios.

Un anuncio interno de Meta señala que la toma de decisiones y la supervisión de los productos y datos de los usuarios de la UE continuarán estando a cargo de la sede europea de la compañía en Irlanda.

Mark Zuckerberg, CEO de Meta.

Mark Zuckerberg, CEO de Meta. EFE Omicrono

Esto se debe a que en la Unión Europea existen leyes que regulan las plataformas en línea y exigen a empresas como Meta controlar de una forma más estricta sus plataformas y que protejan a los usuarios de contenidos nocivos.

El documento filtrado también revela que los empleados de Meta fueron notificados sobre esta reestructuración poco después de que la compañía pusiera fin a su programa de verificación de datos y flexibilizara sus políticas sobre discurso de odio, según el mismo medio.