La vicepresidenta de la Comisión, Margrethe Vestager, durante su rueda de prensa de este miércoles

La vicepresidenta de la Comisión, Margrethe Vestager, durante su rueda de prensa de este miércoles Reuters

Disruptores e innovadores

Inteligencia artificial: la UE prohibirá la puntuación social y la vigilancia biométrica masiva

Bruselas presenta la primera norma sobre inteligencia artificial cuyo objetivo es generar confianza y potenciar la inversión.

21 abril, 2021 13:24
Bruselas

Noticias relacionadas

La Comisión Europea ha presentado finalmente este miércoles su esperado reglamento sobre inteligencia artificial, cuyo objetivo es generar confianza en esta tecnología y potenciar la inversión y la innovación. La Unión Europea aspira a fijar los estándares internacionales en este sector, como ya hizo en materia de protección de datos, y mantener así una posición de liderazgo mundial.

El reglamento todavía tiene que ser negociado y aprobado tanto por los Gobiernos de la UE como por la Eurocámara. Una vez que entre en vigor, se aplicará de forma directa en todos los Estados miembros, evitando así la fragmentación regulatoria. "Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva", ha dicho la vicepresidenta ejecutiva de la Comisión y responsable de esta norma, Margrethe Vestager.

El nuevo reglamento de la UE se basa en un enfoque basado en el riesgo, tanto para la seguridad como para los derechos fundamentales de los ciudadanos. En el peldaño más alto de la pirámide se encuentran el número muy limitado de aplicaciones de inteligencia artificial que según Bruselas plantean un "riesgo inadmisible" y que se prohibirán de forma terminante

En esta situación se encuentran los sistemas que usan técnicas subliminales para eludir la voluntad de los usarios: por ejemplo, juguetes que utilicen la asistencia vocal para incitar a comportamientos peligrosos a los menores. La UE prohibirá también sistemas que permitan la "puntuación social" de los ciudadanos por parte de los Gobiernos, como hace por ejemplo China.

Bruselas también quiere fijar requisitos muy estrictos a todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. No obstante, se preven una serie de excepciones tasadas: por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta o inminente o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de delito grave.

Su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a límites desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.

El riesgo es el criterio

En el segundo escalón de la pirámide se encuentran las aplicaciones de inteligencia artificial que según Bruselas presentan un riesgo alto. En esta categoría se encuentran por ejemplo las tecnologías de puntuación en exámenes, programas de clasifiación de currículums para procedimientos de contratación, sistemas de calificación crediticia para acceder a un préstamo o evaluación de la fiabilidad de las pruebas en un procedimiento judicial.

Estos sistemas de alto riesgo estarán sujetos a una serie de obligaciones estrictas antes de poder comercializarse. Entre ellos, procedimientos adecuados de evaluación y mitigación de riesgos, garantías de alta calidad de los datos empleados, registros de actividad, información clara y adecuada a los usuarios y medidas apropiadas de supervisión humana.

En el tercer peldaño del reglamento se encuentran los sistemas de inteligencia artificial de riesgo limitado, a los que se impondrá obligaciones específicas de transparencia. Es el caso de los deep fake o de los bots. Al utilizar robots conversacionales, se deberá avisar a los usuarios de que están interactuando con una máquina para que pueda tomar una decisión informada de continuar o no.

Finalmente, el reglamento no fija ninguna obligación para aplicaciones que plantean riesgo mínimo o nulo, tales como videojuegos o filtros de correo basura. Bruselas sostiene que la inmensa mayoría de los sistemas de inteligencia artificial entra en esta categoría en la base de la pirámide. Para las empresas incumplidoras, la nueva norma prevé la retirada de productos del mercado y multas para los casos más graves.