Esta semana magnates tecnológicos como Pavel Durov (fundador de Telegram) o Elon Musk (dueño de X) han cargado contra el Gobierno de España por anunciar nuevas medidas restrictivas para las redes sociales. Al mismo tiempo, Reino Unido busca luchar con más vehemencia contra el contenido falso que circula en estas plataformas.
El Gobierno británico ha anunciado hoy una importante alianza con Microsoft, académicos y expertos en la materia que trabajarán conjuntamente para desarrollar un sistema con el que detectar material deepfake en internet.
Múltiples países como España, Reino Unido o Francia, además de la Unión Europea, avanzan en el establecimiento de nuevos estándares y legislación para abordar el problema que supone la creación y circulación de contenido dañino y engañoso, la mayoría generados por inteligencia artificial.
El rápido avance de los últimos años en las capacidades de la IA ha puesto a disposición de millones de personas las herramientas para crear en poco tiempo y casi sin conocimientos contenido falso de calidad, imágenes, texto o vídeos que son imposibles o muy difíciles de diferenciar de la realidad.
A su vez, las redes sociales sirven como autopistas para la distribución de este contenido. Aunque algunas de las plataformas digitales están estableciendo normas y medidas contra este peligroso contenido, resulta insuficiente.
La iniciativa surge días después de que el regulador de comunicaciones Ofcom y la Oficina del Comisionado de Información iniciaran investigaciones paralelas sobre el chatbot Grok de Elon Musk.
"Los delincuentes están utilizando las deepfakes como arma para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que vemos y oímos", dijo la ministra de Tecnología, Liz Kendall, en un comunicado.
La reciente polémica con Grok, ejemplifica este problema. A pesar de las medidas aplicadas por la empresa xAI, un reciente estudio ha revelado que los usuarios siguen pudiendo generar vídeos con imágenes de desnudez desde esta herramienta.
Esta nueva iniciativa, según informa Reuters, evaluará cómo se puede utilizar la tecnología para analizar y detectar materiales deepfakes dañinos, independientemente de su fuente. Se estima que en 2025 se compartieron 8 millones de deepfakes, según datos del gobierno británico; en 2023 fueron 500.000.
El objetivo final de este proyecto es identificar las lagunas en las capacidades de detección actuales y proporcionar al gobierno y a las fuerzas del orden un mejor conocimiento de dónde persisten las limitaciones tecnológicas, dijeron los funcionarios.
Prácticamente desde el inicio de esta revolución tecnológica se han desarrollado diferentes herramientas y marcas de agua para detectar el contenido generado por la IA. Sin embargo, los usuarios encuentran con facilidad la forma de eliminar esas marcas y compartir el contenido impidiendo el análisis del código que indica su procedencia.
