Es una cuestión de derechos. Derechos humanos. Cuando una tecnología introduce nuevas formas de discriminación e inequidad, vulnera la presunción de inocencia o atenta contra la propia dignidad o la libertad de movimiento, no se puede mirar para otro lado. Por eso, la pasada semana un grupo de profesionales y personas del ámbito de la academia y la investigación remitieron al Gobierno español una carta en la que pedían “una comisión de investigación que estudie la necesidad de establecer una moratoria en el uso y comercialización de sistemas de reconocimiento facial de empresas públicas y privadas”.

La carta alude a los potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades de las personas y sus derechos fundamentales. Racismo, clasismo, sexismo, atentado contra el libre albedrío, injusticias y tratos discriminatorios son algunas de las acusaciones contra el reconocimiento facial. “Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”, dice la carta.

¿Cómo y por qué están estos aspectos en juego? ¿A qué se debe? Lo primero que hay que preguntarse es en qué consisten estas tecnologías y para qué se utilizan. Los sistemas de reconocimiento facial son un tipo de tecnología biométrica. Estas herramientas sirven para la autentificación, es decir, para verificar la identidad de los seres humanos a partir del reconocimiento de una o más características físicas (rostro, huellas dactilares, iris) o de comportamiento (por ejemplo, su firma).

Durante años, estas tecnologías han permanecido en el terreno de la seguridad nacional y la aplicación de la ley, pero hoy están hoy en todas partes. Se emplean comúnmente con fines de verificación o identificación: desde usos policiales (identificar delincuentes o asistir en la búsqueda de personas desaparecidas) hasta otros más aparentemente nimios como desbloquear el smartphone. Están plenamente integradas de forma rutinaria en nuestras vidas. Hasta Mercadona las usa -no sin polémica- en sus supermercados.

Los sistemas biométricos han llevado la vigilancia a una escala sin precedentes. Solo las tecnologías de identificación de rostros afectan ya a la mitad de la población mundial de forma regular, según el Mapa Mundial del Reconocimiento Facial de Surfshark. Están en uso en al menos 98 países y prohibidas en tres. Y ocupan el tercer puesto en la clasificación de inversión privada global en tecnologías de inteligencia artificial, según el informe Artificial Intelligence Index Report de la Universidad de Stanford.

¿Cómo funcionan estos sistemas? Para la verificación, comparan los rasgos faciales de una persona con las imágenes disponibles para confirmar que una foto coincide con una foto en una credencial o con una imagen diferente de la misma persona en una base de datos. Para la identificación, determinan si la persona en la foto tiene alguna coincidencia en una base de datos.

Las herramientas de análisis facial están lejos de ser perfectas. ¿Recuerdan cuando un sistema “inteligente” de reconocimiento de imágenes siguió la calva del árbitro en lugar de a la pelota en un partido de fútbol? No es un caso aislado. Los errores de estos sistemas tienen serias consecuencias: arrestos erróneos, sistemas de identificación de sospechosos que fallan el 80% del tiempo, herramientas policiales de detección que se equivocan el 96% de las veces, tecnologías para examinar pasaportes que no reconocen a personas de piel oscura o discriminación sistemática de personas de color en redes sociales.

Los errores de distinción por raza son, de hecho, prevalentes en los sistemas biométricos. Hay, no obstante, otras muchas razones por las que los sistemas biométricos pueden fallar. Tanto su eficiencia como su precisión puede verse significativamente afectada por múltiples variables demográficas, como el género, la edad, las gafas o la altura, además de la iluminación, la variación de la pose o las expresiones faciales.

Por ello, es altamente probable que las tecnologías de reconocimiento facial no funcionen de manera adecuada u óptima. Tras dos décadas de investigación continua, y de mucho dinero y esfuerzo puestos en ello, no son todavía lo suficientemente precisas ni eficientes. Como señala un informe de junio de 2020 de la Oficina del Alto Comisionado de las ONU para los Derechos Humanos, a pesar de las notables ganancias de precisión en los últimos años, son “propensas a errores”. Y, por muy bajas que puedan ser sus tasas de error, cuando estas se aplican sobre un gran número de personas, las equivocaciones pueden tener consecuencias nefastas para cientos de individuos.

Portal de derechos

¿En qué se traduce o puede traducirse lo anterior en términos de derechos humanos fundamentales? La primera respuesta es la más obvia: en discriminación. Hablamos de discriminación injusta, clasificación errónea de personas persona por su color de piel o negación de oportunidades sin motivo más allá de sus rasgos físicos. Es lo que han probado hacer a menudo los sistemas de reconocimiento facial.

Pero no solo eso. Como explica Gemma Galdon, fundadora de Eticas Research & Consulting, también atentan contra el derecho a la dignidad en tanto que todo aquel que no forma parte de la media de la realidad algorítmica es susceptible de ser mal clasificado o no considerado por estos sistemas. Ello obliga a esas personas a expresar su no normalidad y a revelar cosas de sí mismas que pueden ser importantes para su dignidad.

Los sistemas biométricos transgreden, además, de forma sistemática la presunción de inocencia. El procedimiento por defecto es recoger todos los datos posibles para analizar si hay en ellos algo sospechoso. “Esto es contrario al Estado de derecho, que establece que el individuo es soberano y solo cuando hace algo que da base para sospechar está justificado que el Estado intervenga”, explica Galdon. “La tecnología recoge tus datos por si acaso. Nos pone a todos bajo sospecha”, añade.

Los aeropuertos son un ejemplo representativo de todo lo anterior. Cuando un ciudadano ingresa a su país de origen, las leyes nacionales y de la Unión Europea establecen el derecho de esa persona a no ser sospechosa sin una causa grave. Sin embargo, las fronteras automatizadas ignoran estas garantías legales ganadas con tanto esfuerzo, al tratar a todo individuo como una amenaza potencial. Es solo una de las reflexiones y hallazgos de Galdon y su equipo en Eticas, que estudió durante cinco años las implicaciones políticas y sociales de la iniciativa ‘Fronteras Inteligentes’ de la Comisión Europea (en colaboración con la propia CE, la Agencia de los Derechos Fundamentales de la Unión Europea y la industria de la seguridad).

¿Qué otras cosas encontró el equipo de Eticas? Que el procesamiento de los datos confidenciales (incluidos los biométricos) que los pasajeros entregan a las autoridades aeroportuarias a menudo se subcontrata a empresas privadas sin la supervisión o las auditorías adecuadas para su seguridad. O que los cruces fronterizos automatizados reflejan la estratificación social y las desigualdades en otros lugares.

Sobre esto último, Eticas habla de una tendencia hacia una política fronteriza de dos niveles: normal y prémium. “Proliferan las áreas restringidas para quienes pueden permitírselo, como salas VIP y carriles prioritarios para el registro, el control de pasaportes y el embarque. Los viajeros de buena fe deben tener una experiencia fluida, libre de colas y desconfianza, pero ese es el caso solo si se preinscriben para compartir sus datos personales y pagan por el privilegio”, concluye su investigación. Así se crea la expectativa -dicen- de que la riqueza puede comprar el derecho de evitar sospechas.

En relación con el derecho a la dignidad, Galdon subraya cómo este se quebranta en los controles de seguridad de los aeropuertos, donde se radiografía a todos los pasajeros. “Si una persona tiene una prótesis, se ve obligada a revelar esa información médica a los servicios de seguridad de un aeropuerto”, comenta. Tienen que justificarse porque estas suelen contener metal o plástico denso que hace saltar las alarmas.

Todo lo anterior desemboca en un derecho clave al que afecta directamente el uso masivo de sistemas de reconocimiento facial: el derecho a la intimidad. La privacidad, como dice Galdon, no solo es importante en sí misma sino que es un derecho portal: abre la puerta al ejercicio de otros derechos como la autonomía personal, la dignidad, la no discriminación, la integración social, o a las libertades de reunión y asociación, y de movimiento. Su incumplimiento no solo da lugar a dinámicas donde los datos se utilizan para vigilar y controlar a los pobres sino que permite perpetuar los privilegios: fortalece las dinámicas de poder preexistentes. Por eso es tan importante.

El uso de tecnologías opacas (cuyo funcionamiento impide saber en base a qué se ha tomado un resultado específico) o la ausencia de transparencia e información a los usuarios sobre cuándo estos sistemas se están usando conduce, además, a la incapacidad de defenderse por parte de las personas afectadas.

¿Prohibir, permitir, regular?

Como señalan los firmantes de la carta al Gobierno de España que piden la moratoria del uso de sistemas de reconocimiento facial, “debido a las graves deficiencias y riesgos que presentan estos sistemas, los posibles beneficios que quizás podrían ofrecer no compensan de ninguna manera sus potenciales efectos negativos, en especial para los grupos y colectivos que suelen sufrir injusticias y tratos discriminatorios: entre otros, mujeres, personas LGTBIQ+ 13, personas racializadas, migrantes, personas con discapacidad o personas en situación de pobreza y riesgo de exclusión social”.

Este grupo de investigadores se une a la ONUy a otros muchos colectivos que han presionado a Gobiernos y empresas en todo el mundo a paralizar o prohibir determinados usos de las tecnologías biométricas y de reconocimiento facial. La ciudad de San Francisco (EE. UU.) fue una de las pioneras en regularlas: ya en 2019 había prohibido por completo todo uso del software de identificación de rostros por parte de la policía y otras agencias locales. Cambridge (EE. UU.) lo hizo después, mientras que otras ciudades estadounidenses han impuesto moratorias o han regulado algunos elementos específicos.

Algunas compañías han descartado también el uso de estas tecnologías en contextos limitados. En medio de las protestas masivas del movimiento Black Lives Matter tras el asesinato policial de George Floyd en EE. UU., IBM decidió poner fin a su software de reconocimiento facial para vigilancia masiva o perfilado racial. Al día siguiente, Microsoft anunció que dejaría de vender sus sistemas de identificación de rostros a los departamentos de policía en EE. UU. hasta que el gobierno federal regule la tecnología. Tras las presiones, Amazon hizo lo propio: decidió suspender temporalmente el uso policial de su herramienta de reconocimiento facial Rekognition, que ya había demostrado tener sesgos de raza y género.

En Europa, el Reglamento General de Protección de Datos (RGPD) establece que el procesamiento de datos biométricos con el propósito de identificación única está prohibido. Sin embargo, existen muchas excepciones -a menudo vagas- a esta prohibición. Eso se traduce en que el RGPD aún permite el procesamiento de datos biométricos en muchas circunstancias, como señala el informe Regulating Biometrics. Global Approaches and Urgent Questions de AINow.

Más allá del RGPD, Francia y Suecia han prohibido el uso del reconocimiento facial en las escuelas. Bélgica, por su parte, no permite que las autoridades empleen tecnología de reconocimiento facial con fines policiales ni cámaras capaces de identificar rostros en aeropuertos. Otros países como Luxemburgo también se han manifestado en contra.

Mientras tanto, China acumula millones de cámaras de vigilancia con sistemas conectados de reconocimiento facial. Ocho de las 10 ciudades del mundo con una mayor cantidad de cámaras de vigilancia instaladas son chinas. Londres es la única capital europea en el top 10, y EE. UU. gana en la competición de países con más cámaras de circuito cerrado de televisión (CCTV) por persona, según datos recopilados por CompariTech y analizados por PreciseSecurity.com.

En España se suceden las noticias sobre nuevas aplicaciones de estas herramientas. El pasado julio de 2020, el Gobierno introducía en el BOE la posibilidad de instalar sistemas de reconocimiento facial como herramienta de control en eventos multitudinarios para facilitar que los agentes puedan detener a personas con asuntos pendientes con la justicia. Casi un año antes se anunciaba un proyecto piloto para el uso de un sistema de reconocimiento facial para pagar en los autobuses de la ciudad de Madrid.

Entretanto, la Covid-19 ha llenado todo tipo de establecimientos de cámaras termográficas con reconocimiento facial para el control de la temperatura en accesos. También ha hecho proliferar todo tipo de tecnologías ‘sin contacto’ o contactless. En este contexto, hasta el aeropuerto Adolfo Suárez Madrid-Barajas ha iniciado un piloto de reconocimiento facial para -según dicen sus responsables- mejorar la seguridad y agilizar los viajes aéreos.

Son solo algunos ejemplos de la introducción de estas tecnologías en cada vez más procesos y actividades cotidianas sin debate y escrutinio público previos. Se hace bajo la excusa y la bandera de la seguridad o de la mera innovación, a golpe de titulares, pero sin una clara justificación de su interés público. Sin embargo, justificar la aplicación de estas tecnologías, su proporcionalidad y su correcto funcionamiento -sin pasar por alto la letra pequeña sobre los límites de estos sistemas y sus requisitos de precisión- no es secundario, y, menos aún, si estas se pagan con dinero de los contribuyentes.

No se trata de criminalizar las tecnologías biométricas y de reconocimiento facial sino de revisar y justificar su uso cuando se pruebe su correcto funcionamiento, y de prohibir las utilizaciones de este tipo de herramientas que atenten contra los derechos humanos. Por lo demás, si estas herramientas pueden ser beneficiosas para las personas y para el bien común, bienvenidas sean.