Julie Brill, responsable de inteligencia artificial en Microsoft, durante el Data Summit.

Julie Brill, responsable de inteligencia artificial en Microsoft, durante el Data Summit.

Tecnológicas

Hacia una inteligencia artificial ética

Se buscan unos principios para lograr una tecnología inclusiva, transparente, cuantificable, justa, fiable y segura

28 septiembre, 2018 07:00

La confianza es fundamental para el desarrollo de la inteligencia artificial, para construir sistemas que amplifiquen las capacidades humanas y nos ayuden en campos tan necesarios como la integración de las personas con discapacidad, la medicina o la alimentación". Así de contundente se muestra Julie Brill, exresponsable de privacidad en la FTC norteamericana (bajo la Administración Obama) y actual responsable del tema en Microsoft. 

Durante su intervención en el Data Summit -celebrado esta semana en Ginebra-, la directiva apela, en ese sentido, a la necesidad de poner la inteligencia artificial al servicio de la gente y romper con algunos de los miedos inherentes a cualquier gran revolución tecnológica.

"Existen muchos temores en torno a la inteligencia artificial, desde las implicaciones para el empleo, hasta los riesgos de privacidad y sesgos del reconocimiento facial", reconoce Brill, quien ya ha pedido al gobierno norteamericano una regulación clara sobre este tema para garantizar las buenas prácticas de todo el sector.

Un comportamiento ético que, más allás de las imposiciones normativas, Microsoft quiere impulsar por medio de seis principios éticos, a saber: la inteligencia artificial debe ser inclusiva, transparente, cuantificable, justa, fiable y segura. "No son los únicos principios, ni necesariamente los mejores", reconoce Julie Brill. "Pero queremos abrirlos al mundo para generar el necesario debate social". 

Datos contra los sesgos

Los sesgos raciales o de género son el mayor reto de la IA, que debe ser entrenada con más cantidad y variedad de datos.
rn