Wake Up Spain

EY

Inteligencia artificial

Inteligencia artificial Europa Press

La tribuna

Tres claves para dotar de imparcialidad a la IA

9 agosto, 2022 01:35

Eliminar el sesgo de las soluciones de inteligencia artificial (IA) no sólo es fundamental para garantizar un trato justo y equitativo de los usuarios finales, sino también para garantizar la seguridad y el éxito de una empresa.

Las consecuencias de ignorar el sesgo en la IA se ilustran claramente en una encuesta reciente de DataRobot, en la que el 36% de los encuestados informaba que sus negocios sufrían sesgo en sus soluciones de IA en al menos un algoritmo, lo que derivó en un trato desigual de los usuarios en función del género, la edad, la raza, el sexo orientación y/o la religión. Como resultado, entre esos encuestados, el 62% concluía haber perdido ingresos, el 61% había perdido clientes, el 43% perdió empleados y el 35 % incurrió en honorarios legales debido a juicios o acciones legales.

La adopción por parte del mundo empresarial de la IA conversacional está aumentando exponencialmente, lo que significa que cada vez más usuarios finales de diversos orígenes y experiencias interactúan con ella. Si bien siempre ha sido importante evitar el sesgo en la IA, nunca ha sido más urgente para las empresas desarrollar estrategias de IA antisesgo.

Sin embargo, este desafío no debería disuadir a las compañías de implementar sus estrategias y soluciones basadas en IA. De hecho, a medida que más organizacione de todos los sectores confíen en la IA para optimizar sus negocios y mejorar las experiencias de los clientes, aquellos que no implementen la IA corren el riesgo de quedarse atrás frente a sus competidores.

Entonces, ¿cómo pueden las empresas e instituciones dar el salto a la IA y al mismo tiempo asegurarse de que sus soluciones no dañen a las mismas personas a las que intentan ayudar? Básicamente, se pueden seguir tres recomendaciones para abordar el sesgo en la IA empresarial.

Crear equipos de desarrollo enfocados a la diversidad

Para 2023, Gartner anticipa que todas las empresas esperarán que su personal de desarrollo y capacitación de IA "demuestre experiencia responsable en IA", para garantizar que sus soluciones de IA logren la equidad algorítmica.

Hay una buena razón para esta predicción de Gartner. Si bien la IA no está inherentemente sesgada, los algoritmos están influenciados por los sesgos y prejuicios de sus creadores humanos. Aunque es posible que aún no estemos en el punto en el que la experiencia responsable en IA sea un requisito para todo el personal de desarrollo de IA, hay pasos que las organizaciones pueden tomar ya hoy para garantizar que los desarrolladores puedan detectar y abordar los sesgos en sus soluciones de IA.

Independientemente de si un desarrollador forma ya parte del equipo de desarrollo de un proyecto de IA o es una nueva incorporación, debe recibir capacitación sobre cómo reconocer y evitar sesgos en IA.

En un estudio reciente, que explora la discriminación por edad en la IA para el sector sanitario, la Organización Mundial de la Salud descubrió que las soluciones de IA para el cuidado de la salud a menudo están integradas con los "conceptos erróneos de los diseñadores sobre cómo viven las personas mayores y se relacionan con la tecnología". La OMS recomienda capacitar a los programadores y diseñadores de IA, independientemente de su edad, para reconocer y evitar la discriminación por edad en su trabajo y en su propia percepción de las personas mayores. Y esto es sólo un ejemplo. 

Este consejo es aplicable para detectar y eliminar no sólo la discriminación por edad, sino también los sesgos sexistas, racistas, de diversidad en las capacidades y otros que pueden estar al acecho dentro de los algoritmos de IA. Sin embargo, si bien los programas de capacitación pueden ayudar a limitar el sesgo, nada se compara con el impacto positivo de crear un equipo de análisis diverso.

Como se señaló en un artículo reciente de McKinsey, "el sesgo en los datos de entrenamiento y los resultados del modelo es más difícil de detectar si nadie en la sala tiene la experiencia de vida relevante que los alertaría sobre los problemas". Los equipos que planifican, crean, ejecutan y monitorean la tecnología deben ser representativos de las personas a las que pretenden servir.

Supervisar las soluciones en cada paso

Otro paso que las empresas pueden dar a favor de la imparcialidad es fomentar la práctica de realizar regularmente auditorías de equidad de los algoritmos de IA. Como se indica en un artículo de Harvard Business Review, una de las claves para eliminar el sesgo de la IA es someter el sistema a una "revisión humana rigurosa".

Varios líderes en el campo de la IA y la automatización ya han puesto en práctica esta recomendación. Alice Xiang, jefa de la oficina de ética de IA de Sony Group, explica que regularmente da instrucciones a sus equipos de que realicen evaluaciones de imparcialidad, no como un indicador de que algo anda mal con su solución de IA, sino porque es algo que deben monitorear continuamente.

De manera similar, la doctora Haniyeh Mahmoudian, especialista en ética global de IA en DataRobot, enfatiza la importancia de vigilar la IA en cada paso del desarrollo para garantizar que el sesgo no se convierta en parte del sistema. Ella explica cómo este proceso permite a los equipos de IA determinar si su producto está listo o no para su implementación pública.

Ser transparente con los usuarios finales 

Incluso después de crear un equipo diverso de desarrollo de IA, capacitar a los miembros del equipo en prácticas de IA responsables y evaluar regularmente los algoritmos a lo largo del proceso de desarrollo, las empresas e instituciones no pueden permitirse el lujo de bajar la guardia.

Una vez que implementan su solución de IA, deben ser transparentes con los usuarios finales sobre cómo se ha desarrollado el algoritmo, la intención de la solución y ofrecerles un contacto para que los usuarios finales puedan plantear preguntas o inquietudes.

Disolver la mística en torno a la IA puede alentar el diálogo abierto entre empresas y usuarios, lo que permitirá a los desarrolladores aprovechar los comentarios de los usuarios para mejorar sus soluciones y reducir el daño al garantizar que cualquier sesgo algorítmico erróneo se resuelva de manera oportuna.

El potencial de sesgo en la IA no es un obstáculo insuperable; sin embargo, tampoco se puede dejar sin abordar. Cuando las empresas desarrollan soluciones o productos con IA, son responsables de asegurarse de que su tecnología trate a todos los usuarios de manera justa, independientemente de su raza, género, edad, capacidad, orientación sexual o religión.

Con estrategias de IA antisesgo que incluyen equipos diversos de IA, seguimiento continuo de sesgo en IA y diálogo abierto con los usuarios finales, las empresas podrán crear experiencias verdaderamente extraordinarias para todos sin distinción.

*** Manuel Rubio es director general de Amelia para España y Latinoamérica.

Ahora en portada

Turistas fotografiándose junto al escudo de Logroño. FOTO: Pixabay

Los 10 mandamientos de la estrategia digital para el sector turístico de Logroño

Anterior
El impacto de los pagos 'contactless'

El impacto de los pagos 'contactless' en la inclusión financiera

Siguiente