El máximo responsable de ChatGPT continúa con su gira mundial en la que está defendiendo regular la inteligencia artificial ante los máximos dirigentes internacionales, aunque con excepciones. Después de reunirse con el presidente de España, Pedro Sánchez en Madrid este lunes, ha pasado por Francia y Reino Unido, en esta última parada ha dejado claro su descontento con algunos puntos del proyecto de ley de inteligencia artificial que está preparando la Unión Europea

"Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible", ha dicho Sam Altman, CEO de OpenAI este miércoles en una conferencia en el University College London. Altman no está de acuerdo con la calificación de sistemas de "alto riesgo" que la ley otorgaría a modelos como GPT-4, la base de ChatGPT, según como está redactada actualmente la propuesta de ley.

El representante de uno de los mayores modelos de lenguaje natural y cuyo chatbot es el más conocido en el mundo, lleva semanas, si no meses, defendiendo la regulación de esta tecnología que "si sale mal, puede salir muy mal", según sus propias palabras. No obstante, este directivo ha dejado claro que prefiere una legislación entre "el enfoque tradicional europeo y el enfoque tradicional estadounidense".

"Sobreregulado"

"El borrador actual de la Ley de IA de la UE estaría sobrerregulando, pero hemos escuchado que se va a retirar", ha dicho Sam Altman a Reuters. "Todavía están hablando de eso". La ley que está redactando la Unión Europea y que se terminaría de aprobar durante la presidencia española del Consejo de la Unión Europea este 2023, se comenzó a negociar en 2019 cuando los modelos de lenguaje natural como los de OpenAI o Google eran proyectos de investigación sin repercusión en la población. El texto califica a los diferentes sistemas de IA y sus usos en varias categorías: inaceptable, alto riesgo, limitado y mínimo. 

Logo de ChatGPT junto a una ilustración- Manuel Fernández Omicrono

Entre las prohibidas están actividades como el social scoring, que usa la IA para clasificar a las personas en función de su comportamiento social, posición socioeconómica y otras características personales. También se ha prohibido la utilización de identificación biométrica a distancia, tanto para gobiernos y autoridades públicas, como para entidades privadas.

En segundo lugar, estarían los sistemas de alto riesgo que podrían operar en los países miembros si cumple una serie de pruebas rigurosas y supervisión humana. Enfocada en un primer momento para los vehículos autónomos, dispositivos médicos o maquinaría de infraestructuras, los eurodiputados han ampliado la lista a aquellas IA que puedan provocar daños a la salud, la seguridad, los derechos fundamentales o el medioambiente, así como influir en los votantes y los sistemas de recomendación utilizados por las plataformas de redes sociales.

De alto riesgo

En esta calificación entraría supuestamente ChatGPT y otros chatbots similares. Desde que están a disposición de todos los usuarios de internet, estas inteligencias artificiales generativas han demostrado su capacidad para crear texto e imágenes falsas pero muy convincentes. Altman ha reconocido el peligro que supone la desinformación creada por la IA, pero señalando a las redes sociales como parte más responsable de este riesgo: "Puedes generar toda la desinformación que quieras con GPT-4, pero si no se difunde, no servirá de mucho", ha dicho.

Precisamente, la semana pasada, el CEO de OpenAI y otros expertos en la materia pedían ante senadores estadounidenses en el Capitolio de EEUU que no se repitieran los mismos errores que se cometieron al legislar las redes sociales: "Actuamos muy lentamente. Muchas decisiones desafortunadas tuvieron consecuencias duraderas", señaló Gary Marcus, profesor emérito de la Universidad de Nueva York.

Sam Altman, CEO de OpenAI (izqda) con Pedro Sánchez (dcha). Moncloa/Fernando Calvo Omicrono

Para los sistemas de IA considerados de alto riesgo la ley europea propone, entre otras demandas, de ley, que las empresas entreguen una lista con los datos protegidos por derechos de autor que fueron utilizados para el entrenamiento de sus modelos de aprendizaje profundo, para que los titulares de esos derechos puedan reclamarlos a través de vías legales en la UE. Pero, no se indica que las empresas deban pedir permiso previo a estos profesionales. ChatGPT y otros modelos se han entrenado con contenido de internet, desde medios de comunicación, publicaciones de millones de usuarios hasta Wikipedia.

Aún así, algunos agentes consideran que la ley concede demasiado poder a las empresas al su propio proveedor también debe considerar que su modelo plantea un riesgo significativo para los derechos fundamentales, lo que daría el poder a las empresas de rechazar esa clasificación, según señala Daniel Leufer de Access Now en Newtral.

También te puede interesar...