En el curso de la guerra de los gigantes de la red contra la información ofensiva o factualmente incorrecta -el término noticias falsas, o fake news, se considera ya demasiado vago o relativo- estamos viendo batallas verdaderamente interesantes, que pueden ayudarnos a entender algunos elementos del mundo en que vivimos.

Tras la gran crisis que supuso la llegada a la Casa Blanca de Donald Trump, presuntamente debida en gran parte a la influencia sobre el voto de cámara de eco formada por las redes sociales y por la circulación de noticias inventadas, el primero en presentar un sistema alternativo fue Facebook: la compañía puso en marcha un sistema de comprobación de noticias contra bases de datos de medios como Snopes o Politifact, que etiqueta a las noticias que circulan por la red como disputadas si se detecta información factualmente incorrecta. 

Al tiempo, a Google le surgió una crisis: en sus páginas de resultados, el recuadro superior que en ocasiones proporciona una respuesta directa a la búsqueda ofrecía a veces respuestas provenientes de páginas no fiables, con credibilidad nula o con visiones conspiratorias o intensamente partidistas

Las respuestas de Google provienen de un algoritmo basado sobre todo en la popularidad, y tristemente, muchas páginas de este tipo cuentan con legiones de seguidores, con enlaces entrantes y con comunidades hiperactivas. El problema, claro, no surge cuando esos resultados aparecen en una lista de diez enlaces, sino son ofrecidos como respuesta única. O peor, cuando un dispositivo te los lee de viva voz. Y el problema no es poca cosa: incluso esos jóvenes considerados absurdamente expertos o nativos digitales son en muchos casos incapaces de reconocer noticias de ese tipo

Para luchar contra eso, Google ha presentado un sistema basado en evaluadores humanos que intentan educar al algoritmo. La idea es educar a un sistema de 'machine learning' para que aprenda a interpretar noticias con contenido factualmente incorrecto, desagradable u ofensivo y las etiquete como tales. Un ejército de diez mil personas en todo el mundo se encarga de evaluar respuestas y puntuarlas en función de su aceptabilidad. No eliminan nada ni influyen directamente en su posicionamiento, simplemente aportan etiquetas que el algoritmo considera. Un trabajo que equivale al rediseño de uno de los algoritmos que, en lo que llevamos de siglo, se ha vuelto más importante e influyente.

¿Funcionará? Es pronto para saberlo. Pero leer sobre el tema ofrece un interesantísimo retrato sobre nuestra sociedad, sobre la naturaleza humana, y sobre cómo la inteligencia artificial se va volviendo cada día más humana y más... natural.