Image: El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos

Image: El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos

Letras

El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos

Eli Pariser

30 junio, 2017 02:00

Eli Pariser. Foto: You Tube

Traducción de Mercedes Vaquero. Taurus. Madrid, 2017. 296 páginas. 18,90 €, Ebook: 9,99 €

"Búscalo en Google" se ha convertido en una respuesta ciberesnob habitual a preguntas que parecen demasiado triviales como para merecer una conversación humana. Pero, ¿verdaderamente es una respuesta? Ahora que cada vez más sitios de Internet están adaptando sus servicios a la idiosincrasia de cada usuario en particular, consultas como "cambio climático", "células madre" o incluso "pizza" pueden arrojar resultados diferentes para personas distintas. Puede que en esta época tengamos cada vez más derecho a nuestra propia realidad, pero, ¿deberíamos tenerlo también a nuestros propios resultados cuando hacemos una búsqueda?

Google se fija en sus consultas anteriores (y en los clics que las siguieron) y criba sus resultados de búsqueda en consecuencia. Si uno tiene cientos de amigos de Facebook, solo ve las actualizaciones importantes de los más íntimos. Facebook se basa en sus interacciones previas para predecir qué y quién es más probable que le interese. Así, si usted es un conservador que solo hace clic en los enlaces de otros conservadores, nunca verá las actualizaciones de sus conocidos liberales, aunque los establezca como sus "amigos".

Esta selectividad puede acabar atrapándonos dentro de nuestro propio "capullo de información", como lo denominaba el experto en derecho Cass Sunstein en su libro República.com: Internet, democracia y libertad (2001). El autor planteaba que este podría ser uno de los efectos más perniciosos de Internet en la esfera pública. El filtro burbuja, la reciente e importante indagación de Eli Pariser (Maine, 1980) en los riesgos de la personalización excesiva, presenta un argumento similar.

Pero mientras que a Sunstein le preocupaba que los ciudadanos utilizasen deliberadamente la tecnología para personalizar excesivamente lo que leían, a Pariser, que es presidente de la junta directiva del grupo de movilización política MoveOn.org, le preocupa que las empresas tecnológicas ya lo estén haciendo por nosotros. En consecuencia, afirma, "los filtros de personalización sirven una especie de autopropaganda invisible que nos adoctrina en nuestras propias ideas, aumenta nuestro deseo de cosas que nos resulten familiares y hace que permanezcamos ajenos a los peligros que acechan en el oscuro territorio de lo desconocido".

Pariser quiere mayor transparencia por parte de las empresas en lo que respecta a sus prácticas de filtrado, y también que introduzcan una mayor diversidad en sus resultados de búsqueda y en sus recomendaciones. Los Gobiernos, afirma, deberían intervenir activamente para imponer normativas a los nuevos intermediarios de la información y garantizar que la gente tenga un control total sobre sus datos. Y la ciudadanía, sostiene con un talante algo romántico, no debería conformarse con ser un mero recipiente pasivo de tuits, pokes y bits, sino que tendría que aspirar a convertirse en lo que algunos expertos en Internet llaman "paseantes de la información" que recorren las sendas inexploradas del ciberespacio y desafían las estrechas categorías que les son asignadas furtivamente.

El libro es digno de elogio por llamar la atención sobre el poder creciente de los intermediarios de la información, cuyas reglas no siempre son visibles

La personalización es motivo de inquietud. En primer lugar, solo es posible porque las páginas web pueden reunir enormes cantidades de información sobre sus usuarios, de manera que se crea una infraestructura de vigilancia similar al Gran Hermano que representa una pesadilla para la privacidad. En los estados despóticos, la personalización también puede reforzar la censura, ya que los algoritmos que determinan qué anuncios mostrarle también podrían suponer qué noticias no mostrarle.

Si bien Pariser analiza los aspectos de la personalización que afectan a la privacidad, lo que más le interesa son sus repercusiones políticas y sociales, y en particular, lo que él considera un alto coste para el descubrimiento fortuito. Lamentablemente, el autor no siempre trata este asunto con la sutileza que merece. Con todos sus pecados, Google y Facebook permiten que los usuarios desactiven la mayoría de los filtros y vuelvan a la Red no personalizada en cuestión de segundos. Obligar a Google a ser más abierto en lo que se refiere a sus algoritmos -una de las sugerencias de Pariser- también podría ser perjudicial para la innovación en la búsqueda. La empresa podría tratar con razón sus algoritmos como un secreto comercial. Los expertos llevan más de una década debatiendo esta cuestión, así como las repercusiones políticas del sesgo de los motores de búsqueda.

Tampoco está claro si la personalización sustituirá a la Red sin filtros o simplemente la ampliará. Asimismo, la personalización podría proteger la ecología del ciberespacio. Cuando los resultados de la búsqueda están hechos a medida, los incentivos para manipular el sistema e invertir en prácticas como la "optimización del motor de búsqueda" para empujar los productos y las ideas propios a los primeros puestos de la clasificación universal se debilitan. Para comprender realmente si la personalización es una amenaza o una suerte, necesitamos una explicación más integral y dinámica del paisaje de la Red.

Las implicaciones más estimulantes del libro surgen de la creencia utópica de su autor de que las empresas de Internet podrían, y deberían, ser algo más que simples proveedores de información que facilitan la búsqueda, la comunicación y las compras. ¿Qué pasaría si algún día Google nos instase a que dejásemos de obsesionarnos con los vídeos de Lady Gaga y, en su lugar, prestásemos atención a Darfur? Si se examina con más detenimiento, da la impresión de que la verdadera preocupación de Pariser tiene menos que ver con la mera diversidad de nuestros flujos de información y más con el futuro de nuestra educación política y cultural.

La ausencia de enlaces que lleven a Lady Gaga en las búsquedas relacionadas con Darfur no parece molestarle tanto como la situación contraria. Pero, ¿cómo pueden las empresas inferir y promocionar un orden jerárquico de significado de esta clase? ¿Queremos que Google, Facebook y Amazon nos dirijan a páginas que "piensan" que deberíamos visitar para crecer espiritual o intelectualmente?

A diferencia de filtros humanos como los críticos y los editores, los algoritmos no "piensan", calculan. Y mientras que calcular el "es" (es decir, la relevancia) es algo que pueden llevar a cabo, calcular el "debería" (es decir, nuestro deber como ciudadanos de estar informados) es un proceso mucho más polémico y con mayor carga de valores que, además, las limitaciones de la inteligencia artificial hacen imposible. Con esto no estoy negando que los ingenieros de Silicon Valley, como sostiene Pariser, tengan responsabilidades que van mucho más allá de la descripción de sus tareas, pero puede que su modesta misión de mejorar la relevancia, aligerar la sobrecarga de información y proponernos libros que podrían interesarnos sean el menor de los males.

Aunque sus conclusiones y sus recetas no resulten del todo convincentes, hay que felicitar a Eli Pariser por revitalizar el debate sobre los peligros de la personalización en Internet. A su vez, El filtro burbuja es digno de elogio por llamar la atención sobre el poder creciente de los intermediarios de la información, cuyas reglas, protocolos, filtros y motivaciones no siempre son visibles. No obstante, si se les debería exigir o no compromisos ciudadanos más importantes es algo que debería ser objeto de un profundo debate.

© NEW YORK TIMES BOOK REVIEW