pobres

pobres

Tecnología

La Inteligencia Artificial discrimina a los países con menos recursos

¿Puede una Inteligencia Artificial discriminar a alguien por su estatus económico? Un nuevo estudio de Facebook afirma que ya está ocurriendo.

26 junio, 2019 20:31

Noticias relacionadas

La Inteligencia Artificial ha sido creada, supuestamente, para hacernos la vida más fácil y mejorar multitud de campos; pero, ¿y si no fuera así? ¿Y si la IA estuviera discriminando a un determinado colectivo?

Así lo afirma un estudio según el que la IA discrimina a los países con menos recursos. ¿Tendrán razón? Os contamos sus argumentos.

La IA discrimina a los países pobres

Un nuevo estudio del laboratorio de Inteligencia Artificial de Facebook muestra que los algoritmos de reconocimiento de objetos funcionan peor a la hora de identificar artículos de países pobres.

Para llegar a esa conclusión, los investigadores probaron cinco algoritmos de reconocimiento de objetos populares, tales como Microsoft Azure; Clarifai; Google Cloud Vision; IBM Watson; y Amazon Rekognition.

El conjunto de datos analizado incluía 117 categorías de objetos, desde pastillas de jabón, hasta zapatos y pasando por sofás. También se tuvieron en cuenta los objetos existentes en hogares con diferentes niveles de ingresos y ubicaciones geográficas.

IA reconocimiento objetos

IA reconocimiento objetos

De este modo, los expertos descubrieron que los algoritmos cometían aproximadamente un 10% más de errores al tener que identificar artículos pertenecientes a viviendas con menos recursos. De hecho, los algoritmos eran entre un 15 y un 20% mejores en identificar objetos de los Estados Unidos en comparación con los de Burkina Faso o Somalia.

Si observáis la imagen superior veréis que a la IA le cuesta mucho más identificar un jabón a la antigua que un jabón de bote. De hecho, resulta curioso que la IA crea que la foto de la izquierda es comida. ¿Por qué ocurre esto?

¿Por qué esa discriminación?

Los autores del estudio creen que hay varias razones por las que se produce dicha discriminación. La primera tiene mucho que ver con las imágenes utilizadas para entrenar a la IA, puesto que suelen corresponder con productos utilizados en países desarrollados y no en los pobres. La segunda razón está relacionada con que la IA no reconoce las diferencias entre las distintas culturas.

¿A qué nos referimos con diferencias culturales? Muy simple, el tomate frito puede introducirse en un bote o en un cartón; en cierta manera, los productos varían dependiendo del país o del continente del que hablemos. Lo mismo ocurre con el jabón, que puede comercializarse como pastilla o en estado líquido, hay miles de ejemplos.

IA reconocimiento objetos 1

IA reconocimiento objetos 1

La solución sería entrenar a la IA con imágenes mucho más variadas y pertenecientes a todo el mundo, no olvidemos que la mayoría de gigantes tecnológicos son de Estados Unidos y cuentan con un nivel de vida mucho mayor que el existente en África, por ejemplo.

Desgraciadamente, que la IA discrimine no es algo nuevo. El reconocimiento facial es un ejemplo de ello, puesto que suele funcionar peor a la hora de identificar rostros femeninos de raza africana. ¿Son en Silicon Valley menos igualitarios de lo que quieren hacernos creer?

Foto destacada: @ninnojackjr en Unsplash