Cuando se habla de inteligencia artificial, la conversación suele girar en torno a la productividad, la eficiencia o el impacto económico. Son preguntas legítimas. Pero antes conviene hacerse otra: ¿de qué aprende realmente esta tecnología?

Fei-Fei Li, una de las figuras más influyentes en el desarrollo de la inteligencia artificial y a menudo citada como la "madrina de la IA", lo explica con una frase que se repite con frecuencia cuando se intenta explicar qué es realmente esta tecnología: "No hay nada artificial en la inteligencia artificial. Está inspirada en las personas, la crean las personas y, sobre todo, afecta a las personas. Es un espejo de nuestra propia humanidad".

Si es un espejo, conviene mirar con atención lo que refleja. Y algunos ejemplos recientes ayudan a entender por qué. Tenemos sistemas de reconocimiento facial que fallan con mayor frecuencia cuando analizan rostros de mujeres con piel oscura.

También hay herramientas de selección de personal que terminan penalizando ciertos currículos o modelos sanitarios que interpretan síntomas de forma distinta según el perfil del paciente.

No es que la tecnología tenga intención de discriminar. Simplemente aprende de los datos que encuentra. Y esos datos proceden de una realidad que durante décadas ha sido desigual.

Ese es el punto en el que la conversación sobre inteligencia artificial cambia de plano. Ya no se trata únicamente de la potencia de los modelos ni de su capacidad de cálculo. Empieza a importar cómo se diseñan los sistemas, qué datos se utilizan para entrenarlos y quién participa en esas decisiones.

Al mirar quién está al frente de este desarrollo aparece otro reflejo. Hoy apenas tres de cada diez profesionales que trabajan en inteligencia artificial son mujeres. En los ámbitos de investigación avanzada la proporción es todavía menor. Y en los espacios donde se toman decisiones estratégicas sobre innovación tecnológica la presencia femenina sigue siendo limitada.

La inteligencia artificial empieza a intervenir en decisiones que afectan a ámbitos sensibles como el acceso al empleo, la concesión de crédito o la atención sanitaria. Cuando los equipos que desarrollan estas tecnologías no reflejan la diversidad de la sociedad a la que van dirigidas, aumenta el riesgo de construir sistemas incompletos.

Por eso algunas organizaciones tecnológicas están empezando a mirar más allá del desarrollo técnico. La pregunta ya no es únicamente quién programa los modelos, sino quién ocupa los espacios de liderazgo donde se decide hacia dónde avanza la innovación.

La presencia de más mujeres en esos ámbitos cambia también las preguntas que se formulan durante el diseño de un sistema y permite detectar antes problemas que de otro modo podrían pasar desapercibidos.

Equipos con perfiles diversos suelen identificar antes limitaciones en un modelo y corregir sesgos que un grupo homogéneo puede pasar por alto. Diseñar inteligencia artificial con criterios de responsabilidad no responde únicamente a una preocupación ética. También influye en la calidad tecnológica y en la competitividad.

Los sistemas más robustos generan mayor confianza, reducen riesgos en su aplicación y facilitan que la tecnología se incorpore con naturalidad en la actividad de las empresas.

En un momento en el que la inteligencia artificial empieza a intervenir en decisiones médicas, financieras o laborales, la pregunta es inevitable. Si queremos que funcione bien para toda la sociedad, parece razonable que quienes la construyen representen también esa diversidad.

Fei-Fei Li decía que la inteligencia artificial es un espejo de nuestra humanidad. Quizá la cuestión no sea solo qué refleja hoy ese espejo, sino quién está delante cuando empezamos a construirlo.

***Elena Zárraga es directora general de LKS Next.