Bandera de China

Bandera de China EFE

Tecnología

China censura su IA: puede “colapsar el sistema socialista y destruir la estabilidad social”

China supervisará que la información con la que se nutre a los modelos de IA no promueve el terrorismo o daña la reputación de la nación.

13 octubre, 2023 09:44

Herramientas de inteligencia artificial generativa de texto como ChatGPT o imágenes como Stable Diffusion han recibido numerosas críticas por el contenido con propiedad intelectual o información falsa que han sido utilizados para entrenarlas, también de España. Ante este nuevo mercado en auge surgen nuevas normativas, como las restricciones aplicadas por China, las más estrictas del mundo y que persiguen tanto las fake news o la violencia como las críticas a su sistema socialista. 

El Comité Nacional de Normalización de la Información y la Seguridad de China ha hecho públicos los requisitos para entrenar a la IA con información legal. Este comité evaluará y determinará el porcentaje de información ilegal y dañina con la que se está entrenando a diferentes modelos de inteligencia artificial en el país.

Los modelos de inteligencia artificial requieren de grandes bases de datos para entrenarse y poder reconocer patrones con los que imitar la escritura humana o la creación de imágenes. Por ejemplo, GPT 3 (tras ChatGPT y Bing de Microsoft) se entrenó con 175.000 millones de parámetros, muchos de ellos extraídos de la web sin permiso de sus creadores.

inteligencia artificial robot teclado

inteligencia artificial robot teclado

De esos textos extraídos de blogs, medios de comunicación o incluso de la Wikipedia, los modelos de inteligencia artificial luego pueden mostrar patrones discriminatorios si no se ha cuidado el contenido del que ha aprendido como frases sexistas. La mayoría de empresas han optado por corregir el mal comportamiento tras el entrenamiento, cuando ya se está usando el modelo y se detectan sus deficiencias.

Según informa Reuters, la postura de China es la de censurar previamente el contenido. Esas fuentes, consideradas perjudiciales por el comité chino, se incluirán en una lista para prohibir su uso como parámetros de entrenamiento. El comité que tomará estas consideraciones está formado por funcionarios de la Administración del Ciberespacio de China (CAC), el Ministerio de Industria y Tecnología de la Información y la policía.

[El gran peligro de la inteligencia artificial: podría usarse para crear nuevas armas biológicas]

El contenido público que se utilice para entrenar a la IA será analizado y si integra "más de un 5% de información ilegal y dañina" será prohibida por este organismo chino. Qué se considera información ilegal y dañina es clave en este caso.

Tal y como detalla Reuters, China no se limita a buscar información falsa o fake news que circulan por la red y que igualmente afectan al resto del mundo, sino que también perseguirá aquel contenido censurado por la ley del país que contribuya al colapso del sistema socialista, dañe la reputación de la nación y destruya la estabilidad social y la unidad nacional. Por ejemplo, los datos o comentarios que ya se censuran en la red controlada por el gobierno, no podrán servir para entrenar la IA.

Chatbot, ChatGPT, Inteligencia artificial

Chatbot, ChatGPT, Inteligencia artificial EP

En esta normativa hablan también de prohibir que la IA genera contenido "que promueva el terrorismo o el extremismo, el odio étnico y la discriminación étnica, la violencia y la obscenidad, así como información falsa y dañina". 

Entre las restricciones establecidas por el país a las empresas que están desarrollando AI en su territorio también exigen que cuenten con la autorización de las personas cuya información personal, incluidos los datos biométricos, se utilizará para su capacitación e instrucciones del modelo inteligente para prevenir violaciones de propiedad intelectual.

[La app de mensajería que arrasa en Hong Kong para evitar la censura]

Esta normativa se ha anunciado poco más de un mes después de que los reguladores permitieran que varias empresas tecnológicas chinas, incluido el gigante de los motores de búsqueda Baidu, lanzaran al público sus chatbots generativos impulsados por IA.

Las Medidas de IA Generativa de la Administración del Ciberespacio de China (CAC), que entraron en vigor el 15 de agosto, son algunas de las más estrictas del mundo, indicaba la revista Time el mes pasado. Dado que estas exigencias pueden ser complicadas de cumplir para los desarrolladores, los reguladores de China se están mostrando flexibles a la hora supervisar ese trabajo y no mermar el avance en comparación con su principal rival, Estados Unidos.

También te puede interesar...