Mark Zuckerberg comparece ante el Senado de EEUU.

Mark Zuckerberg comparece ante el Senado de EEUU.

Medios OBSERVATORIO DIGITAL

El decálogo para que España combata las ‘fake news’ en Facebook, Twitter y Youtube

OBSERVATORIO DIGITAL. Un informe analiza el fenómeno de la desinformación y propone una serie de medidas para acabar con ella.

“Nueva evidencia: Bush y Clinton orquestaron el 9/11", "Hillary Clinton no niega la ayuda de Putin, sacó 400 millones de dólares de Rusia", “George Soros paga manifestaciones ante la Corte Suprema contra Donald Trump” o “Barack Obama no es ciudadano estadounidense y tiene conexiones con al terrorismo islámico”. Son ejemplos de noticias falsas en Estados Unidos, mentiras repetidas mil veces a través de redes sociales, pero que miles de ciudadanos polarizados social y políticamente difunden como ciertas.

El fenómeno se ha propagado como la pólvora en la última década y a España ha llegado, quizás con menos fuerza y espectacularidad que en EE.UU., pero con efectos igual de nocivos que preocupan -y mucho- a los actuales inquilinos de Moncloa. Una de las grandes preocupaciones para Pedro Sánchez de cara a las elecciones del 28-A es la desinformación y la propagación de fake news en las redes sociales durante la campaña electoral. 

Para ello el Gobierno ha puesto en marcha una unidad contra las llamadas “amenazas híbridas”, un cuerpo transversal con miembros de varios organismos públicos que se adelanta a los esfuerzos de la UE de cara a las legislativas de mayo. El miedo es claro. Que esta desinformación termine condicionando el resultado de las elecciones y que pueda cambiar la intención de voto.

En el punto de mira las redes sociales más populares: Facebook, Google y Youtube y como punto de partida, la experiencia recogida en Estados Unidos, el caldo de cultivo y el campo de batalla en el que las fake news han nacido y han propagado su modus operandi al resto del mundo. La elección que llevó a la Casa Blanca a Donald Trump es el inicio de todos los análisis.

En medio de esta polémica, el Center for Business and Human Rights de la Universidad de Nueva York publicó hace unos días un pormenorizado informe sobre cómo la desinformación está influyendo en la política y en la opinión pública estadounidense, además de evaluar las medidas que las redes sociales han tomado para abordarla y aportar once soluciones para terminar con el problema de raíz. 

"No están haciendo lo suficiente"

El informe Tackling Domestic Disinformation: What the Social Media Companies Need to Do elaborado por el catedrático Paul M. Barrett parte de una preocupante realidad. Un estudio realizado en 2018 por investigadores de la Universidad de Oxford descubrió que el 25% de las interacciones en Facebook y Twitter relacionadas con las elecciones de Estados Unidos contenían "noticias basura" (junk news), información deliberadamente engañosa o incorrecta. La mayoría de este contenido perjudicial no provino de Rusia u otros actores estatales extranjeros, sino de fuentes nacionales de los Estados Unidos.

Frente a esta realidad, el informe concluye que las redes sociales no están haciendo lo suficiente para combatir esta desinformación y que podrían hacer mucho más (si quisieran) para atacar definitivamente este problema “que contamina las ideas, fomenta las teorías de conspiración, el discurso del odio y otras falsedades que exacerban la polarización política”. “La democracia sufre cuando las decisiones políticas se basan en la ficción, en lugar de los hechos y de los argumentos racionales”, indica el documento.

Pese a ello, Facebook, Twitter y YouTube -esta última, propiedad de Google- se han defendido históricamente indicando que son meras plataformas y que no son responsables del contenido que muestran. Argumentan además que no seleccionan individualmente cada elemento que muestran a los usuarios como sí lo hacen medios tradicionales como The New York Times.

Es aquí donde entran en la ecuación portales como 4chan, Gab, The_Donald, Breitbart, Infowars y News Punch. Generadores de material cuya propagación de mensajes, noticias falsas y contenidos de odio, sería imposible sin la permisividad de las redes sociales y de sus “insuficientes esfuerzos por controlar estos mensajes”.

¿Porqué han crecido de manera exponencial las fake news? Para el informe, el contenido falso ha crecido principalmente porque las fuentes de información más tradicionales han perdido fuerza. Los periódicos estadounidenses, que perdieron gran parte de sus ingresos por publicidad en su transformación digital, redujeron a la mitad de sus empleados desde 2001 hasta 2016. 

Ideologías proclives a las 'fake news'

Esto ha ido de la mano de fenómenos que apuntan a que los republicanos (los votantes más tradicionales y cercanos a la derecha) “han perdido la confianza en los medios de comunicación tradicionales”. Solo el 21% de los republicanos encuestados por Gallup dijo que confía en los medios de comunicación masivos para informarse "de manera completa, precisa y justa". En contraste, el 76% de los demócratas expresó confianza en los medios de comunicación. 

Con todo, es una realidad que a medida que muchas fuentes de noticias tradicionales han desaparecido, los usuarios de internet han migrado hacia las redes sociales para obtener información, aunque el informe advierte que este fenómeno es más acusado en ciudadanos con perfiles más conservadores y cercanos al Partido Republicano y a Donald Trump.

De esta manera, el documento concluye que “la desinformación doméstica proviene tanto de la izquierda como de la derecha, pero los usuarios conservadores de Facebook y Twitter son más propensos que los liberales a hacer circular contenido falso”.  Extrapolando a España estas conclusiones, no es de extrañar la preocupación de Pedro Sánchez y de su equipo, que temen un vuelco electoral cocinado en redes sociales.

¿Y qué hacen las redes sociales para combatir la desinformación? Desde que la interferencia del gobierno ruso se convirtió en un problema, Facebook y las otras redes sociales han refinado sus algoritmos de clasificación y recomendación y han mejorado la inteligencia artificial que identifica el contenido potencialmente dañino. En el “lado humano”, han contratado a miles de revisores de contenido y verificadores externos.

El resultado de esta actividad es la eliminación de millones de cuentas falsas, la exclusión de algunos generadores de contenido falso y la reducción de gran cantidad de material de este tipo. No obstante, las plataformas aún tienen un largo camino por recorrer para combatir la desinformación. Según un estudio realizado en 2018 por investigadores de la Universidad de Nueva York y Stanford, el compromiso de los usuarios de Facebook con los sitios web de "noticias falsas" se redujo después de las elecciones de 2016, mientras continuaba aumentando en Twitter.

Eliminar el contenido falso

Según indica el documento del Center for Business and Human Rights, las principales plataformas de redes sociales deben hacer más para abordar la desinformación, que representa una amenaza creciente para el discurso democrático. “Si bien estas compañías han tomado algunas medidas para contrarrestar la información falsa y otros contenidos dañinos, continúan empleando un enfoque poco sistemático, en lugar de adoptar una estrategia integral”.

Para el informe, sería prudente que las plataformas recordaran una advertencia de la senadora Dianne Feinstein cuando se dirigió a los abogados de Facebook, Twitter y Google durante una audiencia en noviembre de 2017. "Usted creó estas plataformas, y ahora están siendo mal utilizadas", agregó. "Ustedes tienen que ser los que hagan algo al respecto. O lo haremos nosotros”. 

El documento de la Universidad de Nueva York apuesta por la autorregulación, aunque pide soluciones inmediatas a las redes sociales. “Si las plataformas no aumentan sus esfuerzos, se arriesgan a la intervención del Gobierno de Estados Unidos, lo que podría generar ataques contra la libertad de expresión”, indican. Es por ello que proponen once medidas que las redes sociales podrían adoptar ya (si quisieran) y acabar de raíz con la desinformación que viaja por sus plataformas.

-Eliminar el contenido falso, ya sea generado en el extranjero o en casa: el contenido que sea falso debe eliminarse de las redes sociales y no simplemente ocultarlo y quitarle importancia, “como es la práctica actual de las plataformas”. El contenido falso -información deliberadamente engañosa o incorrecta- es una categoría más fácilmente abordable que la desinformación, por lo que centrarse en estos contenidos hará que la tarea de las redes sociales sea más abordable.

-Aclarar públicamente las razones utilizadas para tomar las decisiones de quitar contenidos: las plataformas de los medios sociales también deben ser más transparentes y consistentes en la articulación de los argumentos en los que se basan para tomar decisiones sobre el contenido problemático.

Esfuerzos para eliminar los bots

-Contratar a un supervisor de contenido de larga experiencia: cada plataforma debe contar con un responsable experimentado que tendrá la responsabilidad para combatir la información falsa. La persona que ocupa este cargo debe informar al director ejecutivo o al director de operaciones para asegurarse de que este trabajo reciba los recursos y el apoyo interno que necesita para que sea efectivo.

-Establecer procesos de apelación más consistentes: una política de eliminación de desinformación más rápida y eficaz requeriría un mecanismo de apelaciones más completo y transparente. Los errores son inevitables, por eso las plataformas deben desarrollar procesos de apelación más efectivos para que los usuarios puedan solicitar que se reincorporen a sí mismos y/o su contenido.

-Intensificar los esfuerzos para eliminar los bots: la proliferación de bots sigue siendo importante. En Twitter, los bots sospechosos representan un 66% de los enlaces tuiteados a sitios de noticias y eventos de actualidad, según el Pew Research Center. Al imitar el comportamiento humano online, los bots pueden aumentar la propagación de la desinformación a una escala mucho mayor. 

-Reajustar los algoritmos para reducir el factor emocional: el modelo de negocio de las redes sociales orientado a la publicidad proporciona un entorno receptivo para los proveedores de desinformación. Eso es porque premia el contenido que provoca reacciones emocionales negativas. Los algoritmos buscan promover el compromiso del usuario, lo que maximiza los ingresos de publicidad. Y cómo los usuarios se sienten atraídos por el contenido sensacionalista y provocativo, los algoritmos favorecen estos contenidos.

Una idea, presentada por el economista digital Roger McNamee, es cambiar a un modelo de publicidad basado en las suscripciones de los usuarios, como es habitual en la industria de la televisión por cable. McNamee, uno de los primeros inversores en Facebook, argumenta que el cambio permitiría a la compañía dejar de confiar en algoritmos que fomentan el compromiso "apelando a emociones como el miedo y la ira".

Regulación gubernamental focalizada

-Proporcionar más datos para la investigación académica: los grupos de investigación académica, como los de la Universidad de Indiana, MIT, NYU y Oxford, están ansiosos por ampliar sus estudios de redes sociales, pero a menudo carecen de los datos que solo las compañías pueden proporcionar. En abril de 2018, Facebook anunció planes para formar una "comisión" de académicos que desarrollarían prioridades de investigación sobre el efecto de las redes sociales en las elecciones. Éste es el camino.

-Aumentar la cooperación en toda la industria: cada compañía de redes sociales ve un trozo diferente de la imagen de desinformación, por lo que ninguna empresa ve el problema en su totalidad. Por lo tanto, tiene sentido que intercambien datos y análisis con la esperanza de fortalecer lo que debería ser un esfuerzo conjunto contra un conjunto común de enemigos.

-Impulsar el apoyo corporativo para la alfabetización en medios digitales: si bien no ofrecen una panacea, los esfuerzos de alfabetización mediática deben evolucionar y fortalecerse. El flujo de información online es demasiado vasto para que las plataformas de redes sociales puedan detectar cada caso de desinformación (o discurso de odio y extremismo violento). Por ello, los usuarios deben asumir la responsabilidad de ayudar a separar el trigo de la paja y la formación en alfabetización mediática los prepara para ello.

-Las redes deben patrocinar más verificación de datos y explorar nuevos enfoques para la verificación de noticias: independientemente de las mejoras que deban realizarse, la verificación de los hechos sigue siendo un ejercicio importante. Nunca se mantendrá al día con todas las noticias falsas que rodean Internet, pero los verificadores de datos capturan decenas de mentiras online todos los días. 

Por su propia existencia, sirven como un recordatorio de que hay una diferencia entre la realidad y la falsedad. En este sentido, la verificación de los hechos subraya la importancia del periodismo tradicional y el papel vital que desempeñan los reporteros y editores para exigir responsabilidades a quienes tienen el poder político y corporativo.

-Apoyar una regulación gubernamental focalizada: la amplia regulación gubernamental corre el riesgo de censura oficial. Pero eso no quiere decir que los legisladores no deban hacer nada. Una idea planteada en el Congreso de EE.UU. en otoño de 2017 exige el mismo grado de divulgación para la publicidad política online que existe actualmente para los medios de difusión tradicionales.