Digamos que, por cualquier motivo, decidimos usar un programita online o una aplicación que supuestamente analizará nuestra personalidad para recomendarnos candidatos políticos. Esa app -llamémosle algoritmo o sistema de recomendación- nos sugiere una opción, marcada con un distintivo de compatibilidad.

¿Preferiremos esa opción por encima de cualquier otra, solo por haberlo dicho el algoritmo? La respuesta es “sí”, pero con matices. Así lo muestra el experimento conducido por las investigadoras Ujué Agudo y Helena Matute, de Bikolabs y la Universidad de Deusto, respectivamente.

El estudio, publicado hoy en la revista PLOS One, evidencia “que las personas se muestran dispuestas a aceptar las sugerencias de los algoritmos en terrenos de decisión tan comprometidos como el voto político o la búsqueda de pareja online”, dicen las investigadoras. Para probarlo, Agudo y Matute usaron un algoritmo ficticio: hicieron creer a los 1.300 participantes en cuatro experimentos que las recomendaciones de candidatos las realizaba un sistema informático, que mostraba la opción más compatible mediante una foto con un distintivo.

Falta de validez externa

Las investigadoras comprobaron que el ficticio algoritmo era capaz de influir en decisiones tanto políticas como románticas de los participantes, reclutados a través de Twitter y la platataforma de reclutamiento para encuestras Prolific. El matiz “capaz” es importante, ya que el hecho de que puedan influir en el voto o en la elección de pareja no significa que, de facto, lo hagan. 

Como señala Gemma Galdon, fundadora de Eticas y experta en ética algorítmica, “una cosa es que en una simulación prefieras una foto y otra es que eso cambie tu voto”. “Lo que dice toda la literatura científica al respecto es que el impacto de las redes sociales en cambio efectivo de preferencias electorales no está demostrado”, añade Galdon.

En efecto, la creación de preferencias electorales se alimenta de interacciones con allegados, del entorno, de la televisión, etc. Los sistemas de recomendación pueden ser una variable más, pero no está demostrado que por sí mismos cambien conductas. Agudo y Matute aclaran que lo que ellas muestran con sus experimentos es que “se puede influir cuando la preferencia no está formada”.

La politóloga e investigadora en la Universidad Autónoma de Barcelona Berta Barbet apunta que el estudio tiene validez interna pero “carece de validez externa”. Es decir, que no está probado que los resultados serían iguales si se reprodujesen las circunstancias en la vida real. “No podemos estar seguros de que lo que ha pasado en los experimentos pasaría también fuera de ellos”, afirma.

Las autoras de la investigación responden que conseguir una amplia validez externa “solo está en manos de los pocos propietarios de esos sistemas de recomendación algorítmica, ya que son los únicos que pueden recrear en condiciones reales un experimento de ese calibre”. Algo que, por otro lado, “sería también altamente cuestionable desde el punto de vista de la ética de la investigación con humanos”, añaden.

Sesgos y persuasión

Lo que el estudio demuestra es que hay una cierta capacidad de persuasión de los sistemas de recomendación algorítmicos relacionada no con su precisión sino con el hecho de que atribuimos a estas tecnologías la cualidad de objetivas. “La clave es la respuesta de las personas a una recomendación cuando creen que hay un algoritmo detrás, sin necesidad siquiera de que exista tal tecnología, para poder influir en sus decisiones. Ha bastado con decirles que hay una inteligencia artificial analizando su personalidad y que les recomienda a tal o cual candidato”, dicen las autoras.

Esto confirma el conocido como ‘sesgo de automatización’: la tendencia a sobreconfiar en los sistemas automatizados. “Es necesario minimizar el impacto de esas decisiones en la libertad humana, dado que todavía no se ha investigado lo suficiente para comprender cómo los diferentes estilos de persuasión de los algoritmos podrían afectar en contextos críticos de decisión”, dice Agudo. Las investigadoras sostienen que, dada la “falta de ética con la que muchas empresas de inteligencia artificial y sus algoritmos realizan experimentos con millones de personas diariamente, su capacidad para influir en decisiones importantes es mucho mayor que la mostrada en su experimento con un algoritmo ‘de juguete’”.

Un científico de datos analizando información. Charles Deluvio /Unsplash

Otro aspecto que las investigadoras estudiaron es el sesgo de familiaridad, que provoca -en sus propias palabras- “que las personas mostremos preferencia por aquello que nos es familiar frente a lo desconocido”. “Este comportamiento automático, que a menudo resulta muy útil, puede convertirse en un sesgo peligroso y jugarnos malas pasadas en algunas situaciones. Por ejemplo, cuando un algoritmo explota este sesgo para inclinar las preferencias de las personas en una dirección concreta mientras mantiene la ilusión de que la elección ha sido libre”, explican.

Dicho sesgo, aplicado a los experimentos de Agudo y Matute, supuso que los participantes desarrollaran preferencias por aquellos candidatos cuyas fotografías se les habían mostrado con más frecuencia, al resultarles más familiares. Es lo que llaman “influencia sutil”. Esto le parece particularmente interesante a Barbet. “El estudio demuestra que la repetición de un perfil genera cierta adhesión, algo que implica darle mucho poder al algoritmo a la hora de normalizar perfiles y discursos. Seguramente explica por qué candidatos muy visibles han conseguido votos, a pesar de sus teóricas debilidades”, comenta.

Agudo y Matute consideran que su estudio “contribuye a aportar la evidencia científica que muchas veces necesitan los legisladores para poder avanzar en una legislación que proteja a la sociedad de estos problemas”. También creen “absolutamente necesario” contribuir a cambiar la percepción que las personas tienen de los sistemas de recomendación, así como sus comportamientos y hábitos de uso.

“Es de vital importancia que las personas seamos conscientes de que se trata de sistemas persuasivos”, señalan. Algo “complementario con el trabajo a nivel regulador para mejorar la forma en que son utilizados los sistemas de recomendación”, dicen. “Es necesario discutir quién puede recabar, poseer y utilizar los datos que hacen que los algoritmos influyan tanto en la vida de las personas”, concluye Matute.

Noticias relacionadas