Publicada

El pasado 10 de septiembre saltaba la noticia en España: el activista ultra Charlie Kirk era asesinado en un ataque con arma de fuego mientras participaba en un evento de Utah. El asesino de Kirk, que habría usado un rifle para cazar jabalíes, está siendo buscado. El problema está siendo la IA.

El FBI ha publicado no solo un vídeo del atacante huyendo del lugar del crimen, sino que ha lanzado unas imágenes borrosas del supuesto autor del ataque para conseguir colaboración ciudadana y así identificar a esta persona.

Lejos de los memes y de las bromas de los usuarios, no han sido pocos los internautas que han aprovechado la inteligencia artificial para intentar reescalar la imagen o ayudar a identificar al agresor mediante imágenes generativas. Y no está dando buenos resultados.

IA generativa para resolver un crimen

Cuando el organismo publicó esta imagen, no tuvo en cuenta que estaba pidiendo ayuda a unos usuarios con múltiples herramientas de inteligencia artificial disponibles, incluyendo a ChatGPT, Grok y otras tantas.

Esto ha llevado a que en pos de intentar dilucidar la identidad del sospechoso, los usuarios directamente publicasen imágenes modificadas con IA del sospechoso. Algunos con la intención de ayudar al FBI, y otros con el objetivo de ganar tracción.

Algunas de estas publicaciones han sido borradas, y las que no han sido eliminadas ahora incluyen notas de la comunidad aclarando que se trata de inteligencia artificial. Y es que no son pocos los que están publicando estas imágenes haciéndolas pasar por instantáneas de seguridad reales.

Los sesgos raciales y físicos de las inteligencias artificiales respecto a los rasgos de las personas no son poco conocidos. Un grupo de investigadores, sin ir más lejos, mostraron cómo las IAs llegaban a volver blanco al mismísimo Barack Obama a la hora de reescalar imágenes suyas.

El problema persiste en esta idea. Las imágenes generadas por IA modifican aspectos fundamentales del sospechoso, como el gorro que llevaba o la sudadera con la bandera de los Estados Unidos.

Más importante aún: cambian los rasgos faciales del asesino, usualmente haciéndolo más atractivo debido precisamente a estos sesgos de género. Hay quienes han intentado 'quitarle' las gafas de sol al atacante con IA.

De base, esto presenta el problema fundamental de la desinformación. La presencia de estas imágenes llevará a que muchos internautas den información errónea a un FBI que actualmente está investigando el asesinato de Charlie Kirk.

Además, estas modificaciones de IA solo enturbian el debate en redes sociales marcado por la necesidad de la colaboración ciudadana, porque los cambios en los rasgos físicos del sospechoso se están debatiendo como reales.

A esto debemos sumarle el hecho de que algunos internautas están aprovechando esta situación para ganar tracción en redes sociales, siendo los casos más graves los de los usuarios que intentan hacer pasar sus fotos por reales.

Este es un ejemplo perfecto de la desinformación masiva generada por el uso de herramientas de inteligencia artificial que advirtieron los expertos prácticamente desde el inicio de la revolución de la IA en 2022.