Una persona utilizando su teléfono móvil.

Una persona utilizando su teléfono móvil. Europa Press

Tecnológicas

Más confianza en el contenido de las personas y menos en los algoritmos: los usuarios se rebelan contra la IA

Las grandes tecnológicas están dando marcha atrás en sus plataformas y volviendo a poner el foco en el contenido producido por personas. 

3 septiembre, 2022 01:08

Desde hace algún tiempo, las grandes plataformas digitales están dando marcha atrás en la confianza depositada en los algoritmos que las sustentan para volver a poner el foco en los contenidos generados por humanos. 

Primero, Twitter recuperó la posibilidad de ordenar el feed de forma cronológica, la fórmula original de la red social, en lugar de la organización en base a la predicción que hacía la plataforma de lo que pudiese interesar al usuario. 

Hace poco, Instagram se sumó a esta idea con la introducción de la categoría de Favoritos, a través de la cual las personas pueden marcar los perfiles de los que deseen ver los contenidos en vez de confiar en que los muestre la aplicación, algo que no ocurre de forma habitual porque acaban perdiéndose entre publicidad y publicaciones sugeridas. 

[España será el campo de pruebas para el futuro Reglamento Europeo de Inteligencia Artificial]

Ahora, Google se ha unido a esta tendencia con el anuncio de la revisión de su algoritmo de búsqueda para primar el contenido elaborado por personas en vez de aquel diseñado específicamente para "convencer" a los rastreadores web y a los robots de indexación. 

Los representantes de la compañía, que suma una participación del 91% de su mercado, explicaron que la actualización busca garantizar que la información no original y de baja calidad no sea primada en las búsquedas. 

Se trata de una respuesta a las críticas emitidas que cuestionaban la relevancia de los resultados ofrecidos por el buscador y señalaban que, a menudo, estaban repletos de anuncios y de contenido automatizado. Así, la firma quiere primar el contenido útil escrito "por personas para personas".

Contrarrestar la pérdida de usuarios y conseguir recuperar la fidelización 

Martín Piqueras, profesor de OBS Business School y experto en Estrategia Digital de Gartner, explica a D+I que los cambios que están introduciendo las grandes plataformas se deben, principalmente, a los intentos por "contrarrestar la pérdida de usuarios y de fidelización de clientes que están sufriendo". 

Según apunta, el descenso del interés se debe a que, con el objetivo de maximizar su tráfico, "y, por tanto, los ingresos provenientes del marketing", han apostado por incrementar de forma gradual los contenidos patrocinados, sugeridos o automatizados. Estos, señala, generan un gran desapego en las personas porque no se ajustan a las razones por las que están en esa aplicación ni a los resultados que esperan, "son molestos y repetitivos", y suponen "mucho ruido entre la información real". 

Al final, explica, el usuario utiliza una red social con unos objetivos "muy claros": informarse, conocer e incrementar su sensación de conexión con otros miembros y "estos contenidos lo alejan de esos fines”".

Piqueras precisa que los usuarios cada vez son más conscientes de su privacidad y prefieren consumir post de su elección antes que los sugeridos por la compañía. "Es como si al estar en un aeropuerto me obligan a pasar por las tiendas del duty free para embarcar, si voy con prisa me generará cierto desapego porque voy a viajar, no de compras", ejemplifica. 

[Reino Unido se aleja de la visión europea sobre la inteligencia artificial y trabaja en su propio reglamento]

El profesor de OBS señala que las personas que tienen un perfil en estas aplicaciones ya no son "tan ingenuas" como hace cinco años, "cuando al ver un contenido sugerido se emocionaban pensando que la máquina les conocía y les recomendaba cosas interesantes y que eso era bueno".

"Hoy día reaccionamos de forma diametralmente opuesta al saber que efectivamente nos conocen y sospechar que conocen demasiado de uno mismo, esto suele crear esa desafección", afirma. 

Piqueras explica que los motores estadísticos pueden generar la sensación de que "se pasan de listos" y, de esta forma, "producir repulsa" porque sugieren "cosas que (las personas) no quieren ver en ese momento". "El usuario tiene momentos, emociones y estados personales que pueden hacer que una sugerencia sea una auténtica bomba emocional que nos haga cerrar la aplicación", añade. 

"Eso está motivando el rechazo social"

En esta línea, Alberto de Torres, profesor de ESIC y CEO de Nektiu, señala a D+I que, en los últimos años, las redes sociales se están enfrentando a una presión por parte de los gobiernos y la sociedad. Esta coacción, explica, está motivada por factores como las recomendaciones que condicionan la experiencia en la plataforma, la falta de transparencia, la desinformación y los sesgos de los algoritmos utilizados. 

De Torres pone como ejemplo las campañas políticas en las últimas elecciones americanas que intentaron manipular "el compromiso para obtener más tracción en Facebook". "Esto está motivando el rechazo social", afirma, 

El profesor de ESIC señala que los estados, a través del sistema regulatorio, están intentando asegurar que los usuarios tienen más control sobre los datos que recopilan estas empresas y el uso que hacen de ellos. Mientras, las empresas abordan las nuevas normativas con el objetivo de preservar la confianza y la fidelidad de su público, así como el negocio de publicidad y datos que las sostiene. 

Ni De Torres ni Piqueras creen que haya una relación directa entre los cambios que están anunciando las grandes plataformas respecto a sus algoritmos y las leyes anunciadas recientemente por Europa, entre ellas, la  Digital Market Act (DMA) y la Digital Service Act (DSA). 

"Sin duda esos gigantes se preparan además para esas regulaciones, y tendrán su impacto, aunque dada la experiencia pasada observo que sus cambios suelen estar más dirigidos a ganar o no perder usuarios", precisa el profesor de OBS. 

Y es que, según explica el profesor de ESIC, las redes en la Generación Z son menos dependientes de las aplicaciones respecto a los consumidores de más edad. 

Así, señala, a medida que surjan nuevas innovaciones, los consumidores jóvenes serán propensos a "adoptar y abandonar las aplicaciones con mayor facilidad porque tienen la seguridad de que su red real de amigos se reproduce en muchas apps a la vez". 

El problema no es la IA, es cómo se usa

Respecto al uso de la inteligencia artificial en este tipo de plataformas, Piqueras apunta que las organizaciones deben ser "muy cuidadosas" para poder "resolver los problemas reales del usuario" más que para "venderle cosas". "No es un problema de la IA, es un problema del cómo la usamos y el por qué", resume. 

Así, explica que no es lo mismo que un robot avise sobre una fuga de agua en función de los datos de consumo, algo que el consumidor agradecería porque evitaría una avería grave, a que ofrezca diferentes tarifas para ahorrar contratando con otra compañía, ya que "generará inquietud". "Seguramente nos preguntaremos cómo sabe cuántos somos, o por qué quieren que me cambie", sigue. 

De Torres se muestra de acuerdo y precisa que, como toda tecnología, "se puede usar de forma correcta o no". El experto explica que hay varios ejemplos de buenas prácticas en este tipo de aplicaciones ante el uso de la IA, por ejemplo, su intermediación para luchar contra los mensajes abusivos, tanto en Twitter como Facebook e Instagram o el reconocimiento facial para sugerir las etiquetas de personas en fotos. 

Aún así, precisa que el problema que atañe a muchos de estos algoritmos es la falta de transparencia en su uso, "siendo quizás el peor uso detectado la manipulación y suplantación de identidades".

[Estas son las tendencias en inteligencia artificial que impulsarán la innovación y la creación de empleo]

En este sentido, ambos expertos coinciden en la necesidad de garantizar un uso responsable, ético y transparente a la hora de usar dichas herramientas. Según el profesor de ESIC, para ello es necesario "una regulación que ayude a establecer estas reglas y límites".

De la Torre reconoce que ya se han hecho avances en este campo, entre ellos las directrices elaboradas por la Comisión Europea o la OCDE, en el camino hacia una inteligencia artificial segura, sólida y transparente, "que respete los valores democráticos y la diversidad".

No obstante, señala que el rápido avance en digitalización impide que los reguladores se adapten a la velocidad de los cambios. 

"La responsabilidad social y la ética en la creación de IA es ya uno de los grandes elementos en los que se trabaja, y se deberá trabajar más en el futuro", concluye Piqueras.