Facebook tiene un serio problema que más o menos se ha calmado: las fake news. Junto con WhatsApp, podríamos decir que una de las vías de Internet donde se extiende más información falsa. Ahora, una de las ingeniosas soluciones es puntuar la credibilidad de cada cuenta de la red social mediante una Inteligencia Artificial.

Esta puntuación (según ha sido revelada en una entrevista con Tessa Lyons, la gerente de producto de la red social en The Washington Post), será concretamente una valoración de la capacidad del usuario para interpretar correctamente aquellas noticias que lee.

Es lo que se conoce como analfabetismo funcional: no poder usar nuestra capacidad de lectura, escritura o cálculo en las situaciones habituales de la vida. Esta IA básicamente generará un indicador de analfabetismo funcional, calificando a aquellas personas que puedan no interpretar correctamente lo que lean.

Y, ¿por qué es tan importante esto? Evitar que se propaguen las noticias falsas es muy difícil. Identificarlas también. Pero, si averiguamos no el origen, sino quien las propaga, podremos paliarlas; es decir, eliminando el medio, también conseguiremos el mismo resultado. Facebook podía simplemente dejar de mostrar los contenidos que compartes al resto de tus amigos.

Analizar la credibilidad de los usuarios, y silenciarles

Sería como una especie de bloqueo parcial para los usuarios con menos credibilidad: podrían publicar las fotografías que se han sacado en la cena anterior con sus amigos, pero no podría compartir enlaces, por ejemplo; pero sí que podría ver las publicaciones del resto de sus usuarios. De este modo, Facebook se ahorraría tener que estar evaluando enlace por enlace, lo cual es harto complicado e incluso se podría decir que imposible.

facebook fake news

Facebook no ha explicado cómo, pero quiere saber tu nivel de credibilidad

Pero claro, ni Facebook ha revelado cuáles serán los aspectos que analizarán, ni los revelarán, pues esto es clave para poder engañar al sistema y seguir propagando información falsa y, por lo tanto, desinformando al personal.

«Una de las señales que usamos es cómo las personas interactúan con los artículos”, dijo Lyons en la publicación […] Por ejemplo, si alguien nos dio comentarios anteriores de que un artículo era falso y el artículo fue confirmado como falso por un verificador de hechos, entonces podríamos ponderar los comentarios de noticias falsas futuras de esa persona más que alguien que indiscriminadamente proporciona comentarios de noticias falsos en muchos artículos. Incluyendo los que terminan siendo calificados como verdaderos», explica Tessa Lyons.

No obstante, que un robot califique si el resto de usuarios deberían ver o no nuestros contenidos, es cuando menos molesto para los usuarios, por lo que podría ser la última oportunidad que dan muchos usuarios a la red social.

Imagen de portada | The Next Web

Noticias relacionadas