Diego García, CEO de MINEO.

Diego García, CEO de MINEO. MINEO

La tribuna

Poniendo orden a la inteligencia artificial

27 diciembre, 2023 02:50

Las System Cards o Model Cards (aún no existe un consenso en la terminología), es un esfuerzo por parte de la industria para establecer desde un marco técnico, ético y de uso el funcionamiento de un sistema de Inteligencia Artificial.

Para que nos podamos hacer una idea, se trata de un documento parecido al prospecto de un medicamento que establece cuáles son los criterios de funcionamiento del modelo, cómo ha sido entrenado, qué personas han estado involucradas en el entrenamiento, qué personas han participado en la evaluación y cómo se asegura que ese modelo cumple determinados aspectos éticos, morales o técnicos. Es decir, un documento en el que se explica la metodología de uso y entrenamiento y que establece el nivel de calidad alrededor de un sistema.

Hasta que se establezca una regulación al respecto de la IA, detrás de las System Cards están las propias compañías que desarrollan los sistemas; por el momento, no existen entidades certificadoras independientes ni existe un equivalente a una agencia del medicamento u organismo que regule este tipo de modelos. Estas compañías cuentan con diferentes equipos, incluso con empresas independientes que hacen las auditorías internas respecto al funcionamiento de los sistemas. Y estas auditorías se incluyen también en la System Card para que quede constancia de cuál es el proceso de evaluación que se ha seguido, qué personas lo han evaluado y con qué procesos lo han hecho.

Por el momento y como no existe un estándar en la industria, cada compañía lo hace de manera distinta, pero el proceso establecido suele ser partir de un conjunto de datos de entrenamiento, que son totalmente independientes de los datos de evaluación.

Si ponemos un ejemplo práctico, vamos a imaginar un modelo de generación de imágenes al que le digo que quiero generar una imagen de una casa en medio de una montaña en una escena invernal. El modelo lo genera porque potencialmente pueden generar cualquier tipo de imagen, pero, para evaluar ese tipo de situaciones, lo que se hace es establecer conjuntos de evaluación que no se le enseñan al modelo para verificar que el modelo no genere, por ejemplo, imágenes violentas, pornográficas o que incumplan algún tipo de sensibilidad o que fomenten actitudes moralmente o éticamente irresponsables.

El principal reto al que se enfrentan las System Cards es la ausencia de regulación, y esto se debe a que existe una falta de comprensión de la IA por parte de los reguladores. Se está produciendo un avance muy rápido de la tecnología y establecer una regulación es complicado porque los reguladores tienen que entender en profundidad este tipo de tecnologías y no hay muchos que entiendan verdaderamente el impacto de estas tecnologías y que a la vez tengan conocimientos regulatorios para poder establecer unos criterios bien definidos que luego puedan ser aplicables en la práctica.

En segundo lugar, el freno está en el dominio por parte de las grandes empresas tecnológicas que establecen unos criterios en línea con sus intereses. La mayor parte de estas compañías son norteamericanas y están estableciendo un dominio empresarial, alrededor de estas tecnologías. Estas empresas quieren que se establezca una regulación, pero que sea favorable a sus intereses.

Y el tercer reto es el dato con el que se están entrenando este tipo de modelos porque compañías como Microsoft, Meta o Google están entrenando modelos con datos extraídos de internet, y que no está muy definida la licencia de uso. ¿Y cómo se garantiza? Asegurando que los datos con los que han sido entrenados estos modelos pertenecen a fuentes que estén bien reguladas y que puedan ser utilizados para entrenar modelos de IA. Y que las personas que hayan generado esa información estén de acuerdo en que sea utilizado para ese fin. Estamos hablando de la autoría de la información que se utiliza para generar modelos de IA y que hoy en día no se está teniendo en cuenta.

Las System Cards ofrecen una mayor transparencia y racionalidad en cuanto al uso de los modelos, especialmente en el uso que hacen las empresas de los datos de los usuarios, cómo han sido tratados y cuál es el nivel de riesgo-beneficio del uso del modelo. En el futuro es muy probable que los reguladores acaben estableciendo normas similares a los estándares ISO, que se fijarán en las System Cards  para establecer niveles de riesgo-beneficio, igual que ocurre con un medicamento.

Y para lograr todo eso, lo que las empresas necesitan es talento específico y formar al existente para adquirir nuevas habilidades. La necesidad de especialistas es enorme.

Por una parte, está la importancia de desarrollar nuevos modelos, habilidades técnicas, tecnológicas; pero, por otra, hay una necesidad grande de aprender a utilizar este tipo de tecnologías de manera eficaz, y aquí hablamos incluso del usuario, que tendrá que aprender a utilizar estos modelos como si fueran el nuevo sistema operativo del futuro. Las personas, al igual que tienen que aprender a utilizar Windows, Mac OS, tendrán que adaptarse a este tipo de modelos. Por último, se van a necesitar perfiles que comprendan estos modelos desde un punto de vista práctico y puedan establecer un marco regulatorio para su uso y difusión

Al igual que ocurrió con Internet y las páginas webs, para los modelos de inteligencia artificial, serán necesarios los validadores. Es muy probable que, por ejemplo, la Unión Europea u otro organismo publique un validador y que tengamos que certificar los modelos y sistemas de IA para asegurar que disponen un comportamiento ético o moralmente aceptable.

La Unión Europea tiene que dar un paso firme, porque al final estamos en un mercado en el que muchas veces manda la estrategia de winner take it all, o sea, que el primero que llega es el que se lo queda. Si la Unión Europea no establece mecanismos claros y efectivos, acabaremos usando los estándares americanos.

***Diego García Morate es CEO de MINEO.

Inteligencia artificial

Inteligencia artificial: piensa en pequeñito

Anterior
Oportunidades de trading

Dónde invertir en bolsa hoy: valores para buscar un rally de cierre de año

Siguiente

Operar con instrumentos financieros o criptomonedas conlleva altos riesgos, incluyendo la pérdida de parte o la totalidad de la inversión, y puede ser una actividad no recomendada para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectadas por factores externos como el financiero, el legal o el político. Operar con apalancamiento aumenta significativamente los riesgos de la inversión. Antes de realizar cualquier inversión en instrumentos financieros o criptomonedas debes estar informado de los riesgos asociados de operar en los mercados financieros, considerando tus objetivos de inversión, nivel de experiencia, riesgo y solicitar asesoramiento profesional en el caso de necesitarlo.

Recuerda que los datos publicados en Invertia no son necesariamente precisos ni emitidos en tiempo real. Los datos y precios contenidos en Invertia no se proveen necesariamente por ningún mercado o bolsa de valores, y pueden diferir del precio real de los mercados, por lo que no son apropiados para tomar decisión de inversión basados en ellos. Invertia no se responsabilizará en ningún caso de las pérdidas o daños provocadas por la actividad inversora que relices basándote en datos de este portal. Queda prohibido usar, guardar, reproducir, mostrar, modificar, transmitir o distribuir los datos mostrados en Invertia sin permiso explícito por parte de Invertia o del proveedor de datos. Todos los derechos de propiedad intelectual están reservados a los proveedores de datos contenidos en Invertia.