Una imagen de 'The Creator' (Gareth Edwards, 2023), la última superproducción de Hollywood que aborda el tema de la IA

Una imagen de 'The Creator' (Gareth Edwards, 2023), la última superproducción de Hollywood que aborda el tema de la IA

DarDos

El inmenso poder de la inteligencia artificial: ¿urge una normativa?

Suplantación de personalidad, manipulación de imágenes y de datos... La IA está poniendo a la sociedad contra las cuerdas prácticamente sin proponérselo.

Richard Benjamins Pedro Meseguer
3 octubre, 2023 01:44

Lo que hay de complejo

Richard Benjamins

Richard Benjamins

Richard Benjamins. Responsable de IA ética de Telefónica, cofundador del observatorio OdiseIA y coautor de El mito del algoritmo (Anaya)

No hay ninguna duda de que la Inteligencia Artificial tendrá aún un impacto más grande de lo que ahora estamos viendo; en el negocio, las sociedades, el medioambiente e incluso en la geopolítica. No es extraño, entonces, el interés en regularla. ¿Qué hay de complejo en la regulación de la Inteligencia Artificial?

Primero, tenemos que diferenciar entre regular una tecnología y el uso de esta tecnología. En general, todas las propuestas de regulación de la IA se enfocan en el uso, aunque hay matices, como regular los modelos fundacionales (por debajo de ChatGPT, etc.). Segundo, las razones.

Claro está que el uso malicioso de esta tecnología debe estar prohibido. No se debería poder usar para manipular a las personas, para realizar ciberataques supersofisticados a infraestructuras críticas, para un phishing perfecto o para generar deepfakes de ciberacoso. Pero muchas veces estos usos ya están prohibidos, independientemente de la tecnología que se utilice.

[Proyecto LEIA: así avanzan las máquinas hacia el buen uso del español]

Aunque el uso de la Inteligencia Artificial tiene un buen propósito, puede tener consecuencias negativas de forma no intencionada. Pensemos por ejemplo en los sesgos, la posible discriminación de grupos vulnerables, la opacidad de los algoritmos.... Estas razones son la base de la futura regulación europea, que se basa en los derechos humanos.

Otra razón para regular la Inteligencia Artificial es la geopolítica. Actualmente, los distintos bloques de poderes se están dando cuenta de la potencia de esta tecnología, que podría ser usada para establecer o mantener su poder en el panorama geopolítico. China, Estados Unidos, Europa, la OTAN son todos activos en el desarrollo de la Inteligencia Artificial en el ámbito militar. La única regulación que funcionaría en este contexto sería una regulación global. Pero estamos lejos de esto debido a los intereses divergentes de cada bloque.

De hecho, es importante diferenciar entre regulación civil y regulación militar. La iniciativa más global para “regular” la IA es la recomendación de la Unesco firmada por 193 países. Pero ni es regulación ni incluye el ámbito militar.

Aunque el uso de la IA tiene un buen propósito puede tener consecuencias negativas de forma no intencionada. Pensemos en la discriminación de grupos vulnerables o en la opacidad de los algoritmos

También hay razones de negocio para pedir una regulación. Las grandes empresas tecnológicas (las Big Tech) están pidiendo una regulación sobre los potentes modelos que han generado, los modelos fundacionales (GPT, Bard, LlaMa, etc). Piden regulación para saber cómo gestionarlos y para que se puedan usar. Quizás también para poner barreras a otras empresas con interés en generar estos modelos fundacionales.

Aparte de las consecuencias negativas directas de la aplicación de la Inteligencia Artificial, también existen consecuencias indirectas como la automatización y el futuro del trabajo (con la imposible sostenibilidad de los sistemas sociales de los países), la creciente polarización de sociedades, la interferencia en procesos democráticos, la concentración de riqueza y poder, la creciente desigualdad dentro y entre países...

Controlar estos efectos de la aplicación masiva de la Inteligencia Artificial es una tarea crítica que se debería abordar lo antes posible. 

¿Hacia un Gran Hermano?

Pedro Meseguer

Pedro Meseguer

Pedro Meseguer. Científico del Instituto de Investigación de Inteligencia Artificial (CSIC) y coautor de Inteligencia Artificial (Catarata)

Hoy, la tecnología basada en Inteligencia Artificial (IA) ofrece unas posibilidades tan vastas y tan perfectas en el manejo y manipulación de información, que su regulación es absolutamente necesaria.

Los ejemplos siguientes muestran bien a las claras la potencia actual de la IA, y hacen evidente la obligación por parte de los poderes públicos de establecer normas que ordenen su uso: las opciones de suplantación de personas (voz, imagen) que permite esta tecnología (en especial las fotos y vídeos falsos que circulan por internet); las posibilidades de divulgar información falsa o sesgada mediante chatbots en un lenguaje muy perfeccionado (de particular impacto en redes sociales); los mecanismos de reconocimiento facial, que se pueden usar para controlar a la población de forma antidemocrática (tipo big brother); la recogida indiscriminada de datos sobre el comportamiento de las personas, con los que se pueden desarrollar aplicaciones para la segregación; la utilización de información privada de carácter sensible (el historial clínico de cada persona), que puedan generar comportamientos discriminatorios; el uso de datos que contengan algún sesgo para el entrenamiento de aplicaciones de IA, que en su funcionamiento exhibirán la misma tendencia...

[Así es MarIA, la primera inteligencia artificial experta en la lengua española]

Las capacidades extraordinarias de la tecnología ponen en tela de juicio muchos de los procedimientos en los que se fundamenta nuestra sociedad. Un ejemplo de sus efectos –quizá superficial pero muy real– es la desorientación imperante entre los profesores de secundaria desde la aparición de ChatGPT: los estudiantes copian sus trabajos de casa a partir de las respuestas que proporciona esa herramienta, que está disponible en internet en muchos idiomas (español incluido); los profesores se han quedado sin un recurso importante, los ensayos personales sobre tal o cual tema, que servían tanto para profundizar en los conocimientos del estudiante como para afinar su evaluación.

Si esto sucede con simples ejercicios para adolescentes, qué decir cuándo hayamos de dudar sobre la autenticidad de un video o una declaración sonora, cuando no sepamos si creer o no una noticia recogida en internet, cuando nos nieguen una póliza de salud basándose en nuestra historia clínica...

El uso de la IA se debe reglamentar. Nos jugamos derechos tan básicos como conservar nuestro derecho a no ser vigilados en la calle y a asegurar que nuestros datos privados son custodiados de forma segura

La Unión Europea (UE) hace tiempo que está madurando una regulación sobre la IA. Se cree que antes de Navidad de este año aparecerá un reglamento, de uso obligado en los países de la UE, que ordenará el uso de esta tecnología. No impondrá normas fuera de la UE, pero sí forzará a las tecnológicas estadounidenses a respetar un conjunto de principios cuando operen en la UE.

Desconozco si lo que mueve a Musk, Zuckerberg y Gates para reclamar la regulación son motivos similares a los expuestos arriba; lo cierto es que el uso de la IA se debe reglamentar, lo pida o no la realeza tecnológica. Nos jugamos derechos tan básicos como mantener la credibilidad de lo que vemos, oímos y leemos en internet, conservar nuestro derecho a no ser vigilados en la calle y a asegurar que nuestros datos privados son custodiados de forma segura.

La presidenta del Congreso, Francina Armengol, durante el pleno de investidura del líder del Partido Popular Alberto Núñez Feijoo. Foto:  Eduardo Parra / Europa Press

El decoro parlamentario

Anterior
Imre Kertész

Imre Kertész y la sombra de Auschwitz

Siguiente