Publicada

Natasha Crampton es abogada, neozelandesa aunque afincada en Estados Unidos, y desde 2019 la primera Chief Responsible AI Officer de Microsoft, un cargo creado para poner límites claros al desarrollo de esta tecnología dentro de la multinacional de Redmond. Bajo su batuta, un equipo de más de 350 personas vela por que la innovación en inteligencia artificial avance al mismo ritmo que la gobernanza y su uso responsable.

La primera vez que este humilde escribano conoció a Crampton fue en Seattle durante la conferencia Ignite de 2023, cuando ya advertía de que “la innovación y la regulación deben avanzar juntas en este camino”. Dos años después, en una nueva conversación con DISRUPTORES - EL ESPAÑOL, repasa cómo ha cambiado el panorama.

“Estamos muy emocionados con el progreso de los últimos años. Una de las claves ha sido la ola de adopción de la IA por parte de clientes de todos los tamaños. Grandes empresas como Telefónica, pero también un ecosistema de startups en España están abrazando esta ola de innovación. Y eso ha puesto el foco en la gobernanza práctica, no solo en teoría”, explica.

La ejecutiva subraya que el trabajo realizado en Microsoft en la última década ha “dado sus frutos” porque les ha permitido no solo desplegar sus propios principios de IA responsable, sino también poner herramientas y buenas prácticas al alcance de clientes y socios. En paralelo, y a diferencia de otros rivales en esta carrera, celebra el impulso normativo en diferentes niveles: desde el AI Act europeo hasta la adopción del Hiroshima AI Code of Conduct, complementado con un marco de reporte en la OCDE. “Los gobiernos intentan hacer dos cosas a la vez: apoyar la innovación y regularla. Pero lo que vemos es que la gente no va a usar una tecnología en la que no confía”, resume.

El reto, admite, es también de comunicación. Reconoce que muchos directivos europeos todavía carecen de información precisa sobre lo que implica la nueva regulación que aprobó la UE el pasado curso. “Nuestros clientes están sedientos de información sobre cómo hacer que sus propias implementaciones de IA sean responsables. Ahí entran en juego tanto nuestros informes de transparencia como marcos internacionales que empiezan a estandarizar cómo se reporta esta información. El marco de reporting del Proceso de Hiroshima, por ejemplo, ofrece un formato común que ayudará a generar una base de conocimiento fiable en todo el ecosistema”, señala.

Ya en 2023, Crampton describía tres niveles de avance en la regulación: primero la autorregulación de la industria, después la normativa estatal y regional, y por último una gobernanza global. Dos años después, sostiene que este tercer nivel está tomando forma.

IA en conflictos como el de Gaza

No podíamos evitar preguntar a Natasha Crampton por las informaciones que vinculan a Microsoft con el uso de su inteligencia artificial por parte de Israel en el conflicto de Gaza.

Ante estas acusaciones, la directiva se remite a las comunicaciones oficiales de la multinacional y defiende que, "tras auditorías internas y externas, se concluyó que su tecnología no había sido usada para causar daño".

“El año pasado la Asamblea General de la ONU adoptó el Global Digital Compact, que contempla dos grandes infraestructuras de gobernanza. La primera es un panel científico internacional de IA que emitirá informes periódicos, al estilo del IPCC en materia climática. La segunda, un diálogo global inclusivo que involucre a los 193 Estados miembros”, explica.

A la vez, se multiplican redes más informales, como la International Network of AI Safety and Security Institutes, que ya reúne a diez países, entre ellos Estados Unidos, Reino Unido, Canadá, Japón, Francia y Alemania, además de la Unión Europea. “Su trabajo es crítico: establecer estándares comunes de medición de sistemas. Puede que sea un esfuerzo menos visible, pero es esencial para asegurar que la IA pueda difundirse de manera segura y con estándares interoperables en todo el mundo”, añade la directiva de Microsoft.

Aun con todas las normas sobre la mesa, Crampton asegura que la presión de los clientes, más allá de las leyes, es la mejor garantía de que la IA se desarrollará de forma responsable: “Lo que veo es que la actual ola de adopción ha generado un interés enorme en hacerlo bien. Eso crea una inercia propia que va más allá de las regulaciones, porque son los propios clientes los que están exigiendo estos altos estándares. Incluso si no hubiera leyes, nos piden entender a fondo cómo nuestra tecnología es responsable por diseño".

Entender el impacto global

La incertidumbre sobre el impacto de la IA y su debido cumplimiento normativo se extiende a toda la cadena de suministro, desde el creador del modelo hasta el usuario final. “El punto de partida es entender quién contribuye con qué en cada tramo de la cadena. Hay que tener claro qué se necesita de otros para desplegar un sistema y qué aportamos nosotros mismos”, indica Natasha Crampton. "Muchas de estas arquitecturas combinan diferentes modelos que interactúan en distintos puntos. Hay que analizar el impacto global del sistema”.

Microsoft, dice a este medio, intenta “predicar con el ejemplo” a través de notas de transparencia, documentación y la publicación de informes de gobernanza. Cita, por ejemplo, el trabajo de su equipo de red-teaming en IA, que ha sometido a pruebas de estrés todos los lanzamientos de modelos de OpenAI y de la propia compañía.

De ahí surgió una herramienta interna llamada PyRIT, que ahora se ha puesto a disposición de clientes y de la comunidad en código abierto. “Sabemos que no todas las organizaciones pueden permitirse un equipo de este nivel, así que compartimos nuestras herramientas para fortalecer el ecosistema”, sostiene.

En el último informe de transparencia, Microsoft también destacaba su apuesta por expandir los principios de IA responsable a todos los formatos: texto, imágenes, vídeo y audio. Una medida especialmente relevante ante la proliferación de deepfakes y la necesidad de marcar claramente los contenidos generados por IA.

Agentes autónomos

Uno de los grandes debates del momento gira en torno al papel de los agentes autónomos, una de las últimas modas tras el boom de los modelos generativos y la llegada de Copilot. Crampton coincide en este diagnóstico e incluso describe a los agentes como "la tercera gran ola" desde la creación de la oficina de IA responsable en 2019: primero fue la IA tradicional aplicada a tareas como el reconocimiento facial; después la IA generativa; y ahora los agentes.

Pero en este caso, las implicaciones sobre su uso responsable y la supervisión humana se elevan exponencialmente, puesto que el valor de estos sistemas radica precisamente en eliminar al operario de la ecuación.

“Si tienes que interrumpir al agente a cada paso, pierdes el valor del sistema. La cuestión es cómo garantizar que sigue las tareas encomendadas sin salirse de los límites. Seguimos necesitando control humano, pero de otra manera”, responde Natasha Crampton.

A su juicio, esta nueva etapa exige “transparencia en cómo se siguen los pasos, guardarraíles para medir la adherencia a la tarea y la capacidad de intervenir en escenarios de alto riesgo. Vamos a ver nuevos enfoques y modelos de supervisión que garanticen que las personas siguen teniendo la última palabra, aunque la forma de lograrlo haya cambiado”.