Siempre he estado en contra de la idea de que el fin justifica los medios. Por eso, me alegré mucho cuando el Parlamento Europeo se alzó la semana pasada para poner algo de freno a los constantes avances del reconocimiento facial. Con casi el 55 % de los votos a favor, los europarlamentarios que nos representan han pedido a la Comisión Europea una "prohibición de cualquier tratamiento de datos biométricos con fines policiales que conduzcan a la vigilancia masiva en espacios de acceso público".

Aunque la resolución no tiene carácter vinculante, debería generar impacto en el avance de la regulación de la inteligencia artificial (IA) en Europa, cuyo primer borrador conocimos a principios de este año. En su momento, aquel texto ya fue criticado por su falta de concreción y por permitir amplias excepciones al reconocimiento facial que darían lugar a lagunas legales.

Por supuesto, los europarlamentarios no son tontos. La resolución admite que la tecnología podría ofrecer "grandes oportunidades para combatir delitos como la financiación del terrorismo y el abuso y la explotación infantil". Pero también advierte que su uso supone "importantes riesgos para los derechos fundamentales de las personas; mientras que cualquier aplicación general de la IA para de vigilancia masiva resultaría desproporcionada".

Queda claro que, para ellos, el fin no justifica los medios. Por muy buenas que sean las promesas del reconocimiento facial y el análisis automatizado de datos biométricos, su impacto negativo podría ser tan grave que no debemos permitirlas, incluso aunque funcionen a la perfección.

Por muy buenas que sean las promesas del reconocimiento facial y el análisis automatizado de datos biométricos, su impacto negativo podría ser tan grave que no debemos permitirlas

"La tecnología es muy prometedora si se desarrolla y utiliza de forma ética y fiable, pero implica riesgos considerables para los derechos fundamentales, la democracia y el Estado de Derecho. Si es defectuosa, es defectuosa, independientemente de quién la utilice y con qué fines. Las buenas intenciones no justifican los medios", advirtió el líder de la iniciativa, Petar Vitanov, durante la sesión.

También recordó algunos escándalos que han demostrado que "los sistemas de IA pueden dar lugar a resultados discriminatorios y con sesgo racial". Por ejemplo, el mundo está pendiente de la resolución de un caso en EEUU que podría prohibir que la policía de Detroit siga usando un sistema de este tipo, después de que su mal funcionamiento provocara la injusta detención de un ciudadano inocente.

En España, la trasposición de la futura normativa obligaría, entre otras cosas, a desmantelar el sistema de identificación de personas mediante IA que ya se utiliza en las fronteras de Ceuta y Melilla. La idea de acelerar y aumentar la eficacia de la identificación de terroristas suena genial, pero ¿y si la tecnología se equivocara y la persona erróneamente acusada fuera usted?

Si es un hombre blanco de mediana edad, puede estar más tranquilo, ya que los mayores sesgos del reconocimiento facial suelen producirse sobre mujeres, personas de color y minorías como las personas transgénero. Ya seamos blancos, negros o azules, todos tenemos el mismo derecho a la presunción de inocencia y a la intimidad.

Esa es otra: cuantos más datos biométricos se recopilen sobre nosotros más fácil será vigilarnos constantemente si no se pone freno a la tecnología. El presidente de Brasil, Jair Bolsonaro, fue duramente criticado cuando en 2019 obligó a los organismos federales a compartir todos sus datos de los ciudadanos brasileños, secuencias genómicas incluidas, para unificarlos en una gran base maestra.

A nivel privado, las cosas pintan peor, ya que aún no existen límites al uso que las empresas pueden hacer de esta tecnología en sus dominios, siempre que no incumplan las leyes de protección de datos. De hecho, este fue precisamente la razón con la que la Justicia obligó a Mercadona a detener su sistema de reconocimiento facial. Independientemente de los posibles sesgos y la opacidad del sistema, el argumento definitivo fue el de la privacidad.

Aunque Europa todavía carezca de una regulación robusta para la inteligencia artificial a nivel público y privado, queda claro que los europarlamentarios están escuchando a la comunidad, que ha recibido entre aplausos la resolución de la semana pasada. Por mucha seguridad y eficacia que intenten vendernos, el fin no justifica los medios, y menos aún si eso supone encarcelamientos erróneos y vigilancia injustificada.