CCC Essen

CCC Essen

Omicrono

Grabaciones encubiertas revelan la verdad de la moderación de contenido de Facebook

La moderación de Facebook está en entredicho, después de unas grabaciones encubiertas que muestran cómo la compañía permite contenido violento y de odio.

18 julio, 2018 20:45

Noticias relacionadas

Unas grabaciones encubiertas en la moderación de Facebook revelan cómo la compañía se salta sus reglas indiscriminadamente.

Una de las preguntas que mas se repitió en las citas de Mark Zuckerberg con representantes políticos a tenor del escándalo de Cambridge Analytica fue “¿Cómo se decide qué contenido puede ser publicado y qué debe ser borrado?”.

La proliferación de “fake news”, del discurso del odio y de violencia en Facebook es un hecho; sin embargo, Zuckerberg siempre soltó la respuesta estándar. Que Facebook tiene unas serias políticas contra ese tipo de contenido; y que usa una mezcla de empleados humanos y sistemas automatizados para borrarlo.

Grabaciones encubiertas en la moderación de Facebook ponen en entredicho a la compañía

Sin embargo, una investigación de la televisión británica Channel 4 revela que la moderación de Facebook ignora esas reglas; y es por eso que hay contenido que claramente las vulnera, pero que sigue accesible desde hace años.

La revelación se ha conseguido gracias a un investigador, que se infiltró con éxito en CPL Resources; esta compañía de Dublín lleva ocho años trabajando con Facebook en moderar el contenido de la red social. Para ello, empleados humanos tienen que revisar millones de post denunciados, en busca de contenido que podría vulnerar las reglas.

mark zuckerberg facebook

mark zuckerberg facebook

Sin embargo, la investigación revela que Facebook permite contenido que supuestamente tiene prohibido, dependiendo de quién lo publique. Por ejemplo, los grupos de extrema derecha parecen tener la misma consideración que gobiernos o medios de noticias; por lo tanto, se les permite publicar cosas que serían borradas en cualquier otra situación. Desde mensajes de odio o publicación de noticias falsas, estos grupos gozan de mayor libertad.

Uno de los vídeos más polémicos es el de un niño sufriendo una agresión; según los moderadores, el vídeo lleva años circulando por Facebook, pero los moderadores saben que no deben borrarlo. Eso es porque, según uno de los entrenadores de la empresa, un vídeo de abuso grabado hace años es poco probable que meta en problemas a Facebook.

La publicación de memes racistas también es permitida; según el instructor, da igual las implicaciones de una imagen, hasta que no se den “ciertos pasos” los moderadores deben ignorarlas.

Facebook responde, pero ¿cambiará algo?

Facebook ha respondido a este reportaje, afirmando que muchas de las cosas que se ven en los vídeos van en contra de sus políticas. En una entrada de post, Facebook ha negado que otorgue protecciones especiales a grupos particulares, sin importar su ideología; afirma que es posible que algunos grupos no sean eliminados inmediatamente porque quieren asegurarse de que no son eliminados injustamente.

Sin embargo, al mismo tiempo Facebook concede que el reportaje muestra “errores” en su sistema de moderación, y agradece a los periodistas la publicación; Facebook está investigando qué es lo que sucedió para evitar que vuelva a pasar en otros centros de moderación.

Las respuestas de Facebook serían suficientes, sino fuera porque nada de esto es nuevo. Desde los vídeos violentos hasta los grupos extremistas, no es algo que haya aparecido de la noche a la mañana; cuesta creer que sea un simple problema de que los instructores no hayan sido debidamente informados, como apunta la compañía.