“La privacidad se esfumó”, proclama uno de los consultados en el documental iHuman de la cineasta Tonje Hessen Schai, dedicado a diseccionar un mundo digitalizado, vigilado por cámaras omnipresentes y controlado por la inteligencia artificial.

El documental, que está disponible para su compra por organizaciones y centros educativos, fue presentado en una mesa redonda de la OCDE, contando con expertos de primera fila. Y no es, ni muchísimo menos, un alegato contra el uso de la tecnología, sino, en todo caso, contra su abuso sin control.

“Es fascinante, y a veces algo aterradora, la rapidez con que está cambiando la relación entre nosotros, los humanos, y la tecnología. El documental es un thriller político de cómo la IA está cambiando nuestro mundo y los desafíos éticos que debemos afrontar hoy”, alega la autora, señalando que estamos en una “época postprivacidad y la IA está en todas partes, recolectando nuestros datos”.

Hessen Schai tiene también una advertencia sobre la peligrosa tecnología deepfake (mezcla de deep learning y fake) que, utilizando IA, es capaz de falsificar vídeos con personas conocidas lanzando mensajes que jamás pronunciarían. Utiliza un conocido clip de Barack Obama en el que insulta a Donald Trump, dice palabrotas y emite opiniones muy agresivas. En realidad, el vídeo es una impostura ejemplarizante de su colega Jordan Peele, para llamar la atención sobre esta alarmante posibilidad que brinda la tecnología.

“Una nueva forma de vida está emergiendo”, señala Paul Nemitz, asesor principal de políticas de Justicia de la Comisión Europea, vinculado a la puesta en marcha del GDPR, a la negociación del escudo de privacidad con Estados Unidos y al desarrollo del código de conducta de la UE y grandes tecnológicas contra el discurso del odio.

Nemitz considera la circunstancia de excepcionalidad provocada por el coronavirus, que puede conducir a los Estados a legislar contra algunos derechos ciudadanos. Plantea, como ejemplo, que los parlamentos deben garantizar “la voluntariedad en la descarga” de cualquier app para el seguimiento de contagios y subraya que “el GDPR sigue vigente”.

“Lo que es perfecto para un científico de datos del gobierno, que es poder compartir datos entre diversos departamentos, no lo tiene por qué ser para el ciudadano”, añade. “La tecnología quiere centralizar los datos, tener el control, pero la democracia es lo opuesto. No todo puede ser controlado. El Parlamento debe decidir qué puede ser compartido y con qué finalidad”.

La opinión de Nemitz, que reclama “ser críticos con el sistema y con la tecnología” se resume con rotundidad: “nada que sea ilegal para los seres humanos puede ser legal para la IA. La inteligencia artificial funciona en un entorno que creamos los humanos y debe hacerlo dentro de la legalidad, incluyendo no causar ninguna clase de discriminación. Las personas no deben convertirse en un objeto de la tecnología. Deben ser los jefes de la IA”.

La otra cara de la moneda

Por el contrario, la asesora de OCDE Karine Perset subraya cómo la inteligencia ha sido utilizada en la pandemia para “detectar y predecir focos de covid” y para facilitar asistencia virtual. Incluso pone en la balanza de lo positivo que “la pandemia estimula el debate sobre cómo usar la IA para gestionar los controles y los contactos”, porque, dice, “en política no tenemos una bala de plata” para resolver los problemas.

“Hemos visto cuatro o cinco años de avance en digitalización en sólo cinco meses”, indica Julie Brill, vicepresidenta y responsable del consejo de privacidad de Microsoft. Asegura que, aún poniendo el foco en que los datos iban a ser claves para luchar contra la pandemia, el modelo de negocio de su compañía considera fundamental “merecer la confianza de la gente en que sus datos serán utilizados con claridad respecto a las limitaciones y protecciones. Incrustamos la seguridad en cada solución que desarrollamos”, incluyendo el uso generalizado de IA.

Usos como el de un bot desarrollado para dar respuestas a las preguntas de “millones de usuarios” sobre la pandemia, aliviando de esa tarea a los médicos que atienden a los enfermos. “Desde marzo hemos desarrollado 2.280 versiones del bot y está activo en 24 países”.

Brill aporta otra visión positiva del avance tecnológico. “Los empleadores han aprendido rápidamente que deben ser flexibles y facilitar a sus trabajadores las herramientas para que puedan ser productivos”. Añade datos que “respaldan que durante la pandemia se ha producido un 55% más de llamadas y reuniones por semana y que un 71% de los empleados prefiere seguir trabajando desde casa, o en remoto, al menos a tiempo parcial”.

No obstante, Brill admite que “no todos los empleos se pueden digitalizar y no todo el mundo tiene la conectividad necesaria para trabajar o estudiar en línea. Hay una gran brecha mundial y no toda la gente posee las habilidades para engancharse a la tarea online a alto nivel. Así que el gran desafío para la OCDE, Microsoft y los propios gobiernos es cerrar esa brecha en conectividad y habilidades de las personas”.  

La mesa también convocó a un experto en la materia, Jack Clark, de OpenAI y partícipe del estudio anual ‘Stanford 100’ sobre la inteligencia artificial, cuya opinión escarba en los equilibrios entre lo positivo y lo negativo: “Por un lado, la IA ha sido utilizada para un estudio molecular de la composición del covid y cómo actuar sobre su naturaleza orgánica. Eso es exactamente lo que yo quiero que haga la IA. Por otra parte, se han introducido sistemas de vigilancia tecnológica en las cámaras para hacer cosas como controlar la distancia social, trazar contactos… y todo eso es ahora muy útil durante la crisis, pero los gobiernos tienen que ser muy cuidadosos con lo que quieren para luego y hacer un uso positivo”.

Clark, jugando ostensiblemente con un tenedor de plástico en la mano, subraya que la tecnología, “como el plástico”, es cada vez más barata, escalable y omnipresente. La cuestión que hay que atajar es si, como ha ocurrido con toda clase de utensilios de plástico, puede acabar convirtiéndose en un factor altamente contaminante, en este caso para la estructura de la sociedad humana.

Andrew Wyckoff, jefe del directorio de Ciencia, Tecnología e Innovación de OCDE, saluda la discusión asegurando que por ahora no hay “una sobrecarga” de recomendaciones sobre estas políticas. “Nuestras recomendaciones en cuanto a datos, un poco aisladas, son sobre estrechar las condiciones de privacidad; financiar con dinero público investigaciones de la comunidad científica; y acceso a los datos en poder de los gobiernos”.

En la actualidad, añade, están “trabajando en algo que llamamos ‘compartición y acceso mejorado a los datos’, que nos va a ayudar a entender esto mejor y puede ser muy útil en tiempos de crisis y la actual ha sido un prueba de estrés sobre lo que tenemos y lo que no”. Le preocupa “parchear” la relación entre lo público y lo privado, “que no funciona muy bien”.

Wyckoff señala también que “hay gobiernos cuyos ministerios poseen muchos microdatos de los individuos, pero no hay forma de compartirlos entre los diferentes organismos”. Y también subraya otro conflicto entre lo que es información y lo que es desinformación. “Lo hacemos lo mejor que podemos y tenemos un proyecto para 2022 en la OCDE que tratará de abarcar todos los campos y cubrir esos agujeros”.

Noticias relacionadas