La desinformación es un problema real en Facebook; algo que la propia compañía admite, pero eso no significa que esté dispuesta a tomar decisiones que podrían tener graves consecuencias en su red social. Desde siempre, la postura de Facebook ha sido que, en vez de borrar información falsa, es mejor dejarla y ofrecer contexto o hacer que aparezca menos en las búsquedas. Sin embargo, una investigación de Bloomberg ha revelado que a la compañía sí le molesta la desinformación que se comparte sobre ella.

Según antiguos empleados y documentos internos filtrados, Blomberg ha descubierto la existencia de dos programas usados para encontrar y atajar noticias falsas relacionadas con Facebook en su plataforma. En el caso de la primera, Stormchaser, llevaba siendo usada desde el 2016, y su objetivo era rastrear contenido viral relacionado con Facebook; especialmente el relacionado con el movimiento “Delete Facebook” que nació después de los escándalos de privacidad de Cambridge Analytica.

Herramientas de Facebook contra información falsa… la que les afecta

Con Stormchaser, los empleados de Facebook podían saber qué publicaciones sobre Delete Facebook se estaban volviendo virales y reaccionar ante ellas. Por ejemplo, con mensajes en la propia publicación, ofreciendo información adicional o desmintiendo bulos. El objetivo era principalmente mensajes con información falsa, “memes” como que el CEO Mark Zuckerberg es un robot o un alienígena, y “copypasta”, mensajes copiados y pegados que se extienden de manera viral.

zuckerberg testimonio senado 2

Esto permitía a los empleados tener siempre una respuesta visible en publicaciones que se volviesen virales, con la intención de que los lectores no se tomasen en serio estas publicaciones. Por ejemplo, promocionando una publicación de la página oficial de Facebook en la que desmentía los bulos publicados en el post viral o el meme. Facebook llamaba a esto “promociones rápidas”, y discusiones internas revelan cómo se usaban para reaccionar ante nuevos virales.

Facebook afirma que no sirven para luchar contra las “fake news”

La otra herramienta se llama Night’s Watch (Guardia de la Noche) una referencia a Juego de Tronos. Este programa habría permitido a los empleados ver cómo la información relacionada con Facebook se transmitía por la red social y por otros productos como Whatsapp. Cada vez que aparecía una nueva noticia relacionada con Facebook, los empleados podían comprobar cómo se expandía y llegaba a los usuarios. Esto incluía Whatsapp, algo curioso porque las comunicaciones de la app están cifradas de punto a punto, por lo que en teoría, Facebook no puede conocer su contenido; en vez de eso, la app es capaz de encontrar menciones de Whatsapp en post de Facebook, por ejemplo, si alguien dice que le han enviado un mensaje con información.

Facebook no ha negado la existencia de estos programas de uso interno, pero sí que ha afirmado que no son tan potentes como la investigación de Bloomberg da a entender. En concreto, Stormchaser ha sido el más polémico por su capacidad de cambiar la opinión de los usuarios, algo que podría haber venido muy bien en la lucha contra los bulos; sin embargo, Facebook cree que es una tecnología demasiado “simple” que no valdría para detectar publicaciones con información falsa. Además, la compañía promete que Stormchaser lleva sin ser usada desde mediados del 2018.