Javier Barrachina, director de I+D en Facephi. Facephi
La digitalización avanza a un ritmo imparable, contándose la inteligencia artificial entre los ejemplos más evidentes. Solo en 2024 se registraron en España casi 8.000 denuncias por suplantación de identidad. Esta cifra refleja la magnitud de un fenómeno que es cada vez más sofisticado: la capacidad de la IA para crear rostros y voces indistinguibles de los reales.
En el contexto de la tecnología disruptiva, este es uno los desarrollos más recientes y prometedores: lograr que los algoritmos y los modelos generativos sean capaces de producir sus propios datos, conocidos como datos sintéticos.
Los datos sintéticos llegaron para resolver un problema real: entrenar sistemas de inteligencia artificial sin violar la privacidad de nadie. Es brillante, en teoría. En lugar de usar millones de fotos reales de personas reales (con todos los líos legales que eso conlleva), creamos millones de caras falsas. Problema resuelto, ¿no? No tan rápido.
Cada día, miles de rostros que nunca han existido se crean con inteligencia artificial. Son perfectos: tienen arrugas donde deben tenerlas, brillos en los ojos, hasta pecas asimétricas. Parecen más reales que las fotos de tu DNI. Y ahí está el problema.
Estas 'personas' sintéticas no van al dentista o buscan aparcamiento, pero sí pueden abrir cuentas bancarias, solicitar préstamos y colarse en tu WhatsApp, haciéndose pasar por tu mejor amigo.
Pero ¿cómo funcionan realmente estos datos creados por IA? Este fenómeno no se limita a crear datos escritos. De hecho, una de las capacidades más sorprendentes se basa en la elaboración de imágenes que simulen rostros, objetos, escenas, etc.
En muchas ocasiones, este tipo de herramientas consiguen generarlas a partir de otras o de instrucciones de texto, también conocidos como prompts. Un ejemplo representativo es el uso de modelos como ChatGPT, que pueden crear imágenes con características específicas o composiciones completamente nuevas.
El reconocimiento facial, necesario para desbloquear teléfonos móviles o acceder a datos bancarios, es una de las tecnologías más consolidadas hoy en día. Sin embargo, para entrenar un sistema como este es necesario que haya grandes volúmenes de información con una alta calidad.
El empleo de este tipo de datos brinda seguridad ante los posibles fraudes u ataques relacionados con la suplantación de identidad, especialmente durante procesos de onboarding digital. Por eso, uno de los mayores desafíos que surge es el de la dificultad de captar este tipo de datos, debido a las regulaciones dirigidas a la privacidad del usuario.
Existe una delgada línea entre lo real y lo sintético, generando un verdadero conflicto entre la identidad y la suplantación de datos. La biometría facial, concebida para reforzar la seguridad, se enfrenta hoy a uno de los mayores desafíos de su historia: la proliferación de datos sintéticos y el avance de las herramientas de clonación mediante inteligencia artificial, capaces de generar identidades humanas y comportamientos digitales prácticamente indistinguibles de los reales.
No hablamos solo de deepfakes, sino de un ecosistema cada vez más amplio en el que irrumpen con fuerza los AI Clone Tools como HeyGen o ElevenLabs, que permiten clonar rostros y voces con un grado de realismo sin precedentes.
Los avances de este calibre plantean retos de interés, rozando un límite ético importante: la creación de imágenes que puedan generar desinformación mediante la producción de rostros inexistentes o escenarios ficticios.
En este sentido, la capacidad de manipular o crear identidades con alto grado de realismo abre la puerta a nuevas formas de desinformación, fraude y suplantación de identidad. Por tanto, la clave está en cómo equilibrar innovación, seguridad y ética.
El acceso a este tipo de herramientas, capaces de engañar a los mecanismos de autenticación, es cada vez más amplio, comprometiendo la integridad de la verificación de identidad. Vivimos en una era en la que la innovación ha alcanzado un nivel de sofisticación tal que lo artificial puede ser indistinguible de lo real.
Porque hoy cualquier persona puede crear imágenes hiperrealistas, manipular rostros o crear vídeos de cero. Esto se traduce en que la posibilidad de infiltrarse en plataformas sensibles mediante identidades falsas crece cada día, radicando en una amenaza directa a la confianza de los procesos digitales, además de difuminar lo auténtico de lo artificial.
Entonces, ¿cómo protegemos nuestra identidad en un entorno donde lo falso puede pasar por auténtico? Este último aspecto, conocido como preservación de identidad, representa uno de los principales retos en la generación de datos sintéticos aplicados a biometría, porque el equilibrio entre utilidad y privacidad no es fácil de alcanzar.
El paradigma de la seguridad digital está evolucionando, ya no se trata de proteger una contraseña, sino defender una identidad propia. Más allá de los aspectos técnicos, la proliferación de imágenes sintéticas plantea desafíos sociales y éticos relevantes.
¿Qué ocurre si una IA genera una identidad que luego se emplea en un fraude? ¿Cómo se garantiza la seguridad? ¿Se podrá entrenar a los modelos para que indiquen cuáles son los datos reales y los distinga de los ficticios?
En esta era digital, la identidad se ha convertido en un activo manipulable que necesita de mayor responsabilidad y regulación. La generación controlada de identidades sintéticas continúa siendo un área central de investigación que requiere de un entrenamiento más ético y robusto.
Necesitamos sistemas que no solo reconozcan caras, sino que distingan entre caras reales y sintéticas. Necesitamos leyes que vayan más allá de "no hagas cosas malas con IA". Y, sobre todo, necesitamos educar sobre lo que está pasando.
***Javier Barrachina es director de I+D en Facephi.