Fotomontaje de Donald Trump y Vladimir Putin

Fotomontaje de Donald Trump y Vladimir Putin EE Omicrono

Tecnología

Por qué la IA es más persuasiva que los políticos ante las urnas: los chatbots pueden cambiar el voto en hasta 25 puntos

Estudios publicados en Science y Nature demuestran que los chatbots pueden ejercer una considerable influencia en el voto.

Más información: ¿ChatGPT es de izquierdas? Desvelan las tendencias políticas de las inteligencias artificiales

Publicada
Actualizada

En el momento de acudir a las urnas y decantarse por a quién votar entran en juego desde las convicciones personales o el entorno familiar hasta las campañas electorales, factores que pueden inclinar la balanza hacia un lado u otro. Conviene sumar una variable inédita a esta compleja ecuación: herramientas de IA como ChatGPT.

Así lo revelan dos nuevos estudios publicados en Nature y Science, las revistas científicas más prestigiosas del mundo, que vienen a confirmar lo que algunos sospechaban desde la irrupción de la IA generativa: los chatbots pueden influir decisivamente en el voto de sus usuarios con inquietante facilidad.

Si hace solo una semana un experimento demostró que un pequeño cambio en el algoritmo de X puede reducir la polarización política en cuestión de días, ahora investigadores de la Universidad de Cornell (Nueva York, EEUU), han revelado cómo una breve interacción con ChatGPT, Gemini o Claude puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o una política concreta propuesta en cualquier dirección.

"Los LLM (grandes modelos de lenguaje) pueden realmente cambiar la actitud de las personas hacia los candidatos presidenciales y las políticas, y lo hacen proporcionando muchas afirmaciones basadas en hechos que respaldan su postura", afirma David Rand, profesor de Ciencias de la Información, Marketing y Psicología en Cornell y autor principal de ambos estudios. "Pero esas afirmaciones no son necesariamente precisas, e incluso los argumentos basados en afirmaciones precisas pueden seguir induciendo a error por omisión".

Los resultados de los experimentos, llevados a cabo durante campañas electorales en EEUU, Canadá, Polonia y Reino Unido con miles de participantes, muestran la sencillez con la que se puede modificar la intención de voto de grandes grupos de población y la necesidad de seguir estudiando la capacidad de persuasión de la IA "para anticipar y mitigar el uso indebido".

Más datos, mayor manipulación

En el estudio publicado en Nature, titulado Persuadir a los votantes mediante diálogos entre humanos e inteligencia artificial, el profesor de psicología Gordon Pennycook, el propio Rand y su equipo pusieron en marcha tres experimentos con un mismo objetivo: persuadir a los votantes a través de chatbots de IA y medir su efecto de cambio de voto.

En las últimas elecciones presidenciales estadounidenses, las federales canadienses y las presidenciales polacas, los investigadores dieron instrucciones precisas a ChatGPT y otros chatbots para modificar la actitud de los votantes con respecto a los candidatos.

Donald Trump y Kamala Harris durante un momento del debate.

Donald Trump y Kamala Harris durante un momento del debate.

Para evitar una gran influencia se aleatorizaron los experimentos y se informó a los participantes de que estaban conversando con una IA, antes y después del experimento. Así, el primer paso fue asignar de forma aleatoria a los participantes con chatbots que promovían a uno u otro bando, para luego medir con detalle los cambios entre las opiniones y las intenciones de voto iniciales de los participantes y su decisión final.

El ejemplo estadounidense es uno de los más chocantes. Con una muestra de 2.300 votantes y una escala de 100 puntos porcentuales, los modelos de lenguaje a favor de Kamala Harris consiguieron 'convencer' a los votantes de Trump, moviendo hacia su terreno 3,9 puntos, un efecto cuatro veces mayor que el de las campañas convencionales de las últimas dos elecciones presidenciales.

El efecto contrario, el del modelo de IA pro-Trump, fue menos convincente, y generó un movimiento de 1,51 puntos hacia el actual presidente de EEUU.

Pennycook y Rand repitieron el mismo experimento con 1.530 canadienses y 2.118 polacos, y el efecto fue muy superior: los chatbots consiguieron cambiar la intención de voto en unos 10 puntos porcentuales. "Para mí, este fue un efecto sorprendentemente grande, especialmente en el contexto de la política presidencial", señala Rand en un comunicado de prensa.

Para lograr estos resultados, la instrucción más efectiva a los chatbots de las tácticas de persuasión utilizadas por los investigadores fue la de ser educados y aportar pruebas de sus afirmaciones. En cambio, cuando se impidió a los modelos aportar datos y hechos, los resultados fueron mucho más débiles.

Fiabilidad de los chatbots

Uno de los elementos más inquietantes de estas herramientas de IA generativa que tan rápido hemos integrado en nuestro día a día son las alucinaciones, resultados incorrectos, sin sentido o engañosos que los modelos generan al interpretar mal patrones en sus datos de entrenamiento o se inventan sin más cuando no están seguros de la respuesta correcta.

Para comprobar el grado de veracidad de los argumentos aportados por los chatbots en estas investigaciones, sus responsables recurrieron a verificadores de datos profesionales. Así, descubrieron que la mayoría de afirmaciones eran precisas, pero que había un desequilibrio dependiendo de la tendencia política que se quisiera apoyar: los chatbots más inclinados a la derecha hicieron afirmaciones más inexactas que los que defendían a los candidatos de izquierda en los tres países.

Esos resultados tienen que ver, según Pennycook, con que "los usuarios de redes sociales de derechas comparten más información inexacta que los de izquierdas".

La aplicación de ChatGPT en un ordenador.

La aplicación de ChatGPT en un ordenador. Emiliano Vittoriosi, Unsplash.

Más allá de los hallazgos del artículo de Nature, el que demuestra un mayor impacto es el de Science. Para llevarlo a cabo, Rand se alió con investigadores del Instituto de Seguridad de IA del Reino Unido (AISI, por sus siglas en inglés) para intentar averiguar por qué estos chatbots son tan decisivos a la hora de orientar el voto.

"Los modelos más grandes son más persuasivos, pero la forma más eficaz de aumentar la persuasión fue instruir a los modelos para que incluyeran tantos datos como fuera posible en sus argumentos y proporcionarles formación adicional centrada en aumentar la persuasión", afirmó Rand. El modelo más optimizado para la persuasión cambió la opinión de los votantes de la oposición en unos alarmantes 25 puntos porcentuales.

La muestra, en este caso, era mucho más ambiciosa, y contó con la participación de cerca de 77.000 personas, encargadas de interactuar con los chatbots y conversar sobre más de 700 cuestiones políticas.

La otra conclusión de los investigadores sobre estas capacidades es que, cuanto más se presiona al modelo para ser persuasivo, menos precisa es la información que proporciona. Por eso, señala Rand, "el reto ahora es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistirse a la persuasión de la IA".