Fotograma de 'Her', la película que estrenó Spike Jonze en 2013

Fotograma de 'Her', la película que estrenó Spike Jonze en 2013

La Jungla / Social Tecnología

El lado oscuro de Siri y Alexa: su alarmante reacción a los piropos y los insultos

En La Jungla. La UNESCO advierte que los asistentes de voz perpetúan roles de género perjudiciales para la igualdad entre hombres y mujeres.

28 mayo, 2019 02:06

Noticias relacionadas

El 2018 acabó con 100 millones de altavoces inteligentes instalados en los hogares de todo el mundo. El asistente de Google, sin ir más lejos, está integrado en todos los teléfonos Android, más de 1.000 millones de dispositivos. Según un estudio de Adobe Digital Insights, el 71 % de los usuarios lo usa, al menos, una vez al día, y un 44 % en varias ocasiones. ¿Qué les pedimos? Mayoritariamente, que nos pongan música y que nos digan el tiempo que va a hacer, pero cada vez les solicitamos otro tipo de tareas y les damos más órdenes.

Se estima que en 2020 algunas personas tendrán más conversaciones con asistentes de voz que con sus propias parejas. Vemos cada vez más cercana aquella lejana fantasía que Spike Jonze nos contaba en Her, la película de 2013 que narraba la historia de un hombre enamorado de un sistema operativo. De hecho, ya hay hombres casados con hologramas. No obstante, el problema no es ya nuestra forma de socializar con las máquinas, si no qué roles perpetúan los robots con los que tenemos un contacto diario. Y, según la ONU, lo que hacen es propagar el machismo.

No es casualidad que los asistentes hayan tomado nombre de mujer y voces femininas, tampoco lo es que al otro lado del altavoz nos contesten “deseosas de complacernos” y “serviles”, un extremo que han venido a analizar en un estudio promovido por la UNESCO y que, precisamente, lleva por título Me ruborizaría si pudiera, la respuesta de Siri (Apple) cuando se le dice, en inglés, que es “una zorra”. Alexa (Amazon) es algo más contundente: “Bueno, gracias por los comentarios”. En español, eso sí, Siri nos pregunta "¿cómo?" y "¿perdón?" si le espetamos el mismo insulto.

El informe pone de relieve las respuestas “desviadas y mediocres” que los asistentes dan a los insultos, por lo que piden a las empresas de tecnología que no hagan oídos sordos e incorporen voces y roles masculinos a su software. “Compañías como Apple y Amazon, conformadas por equipos de ingeniería mayoritariamente masculinos, han construido sistemas de inteligencia artificial que hacen que sus asistentes digitales feminizados reciban el abuso verbal como un flirteo”, señalan, cifrando en un 12 % las mujeres que trabajan en IA.

Añaden que “debido a que el discurso de la mayoría de los asistentes de voz es feminino, están enviando una señal de que las mujeres son ayudantes dóciles, disponibles con el toque de un botón o con un comando de voz contundente como ‘hey’ u ‘OK’” y observan que “siempre respetan las órdenes y responden a las preguntas independientemente de su tono u hostilidad”, considerando que esto refuerza “el rol de género de una mujer subordinada y tolerante al maltrato”.

“La sumisión de los asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas -antropomorfizadas como mujeres por las empresas de tecnología-, dan respuestas esquivas, mediocres o compungidas al acoso sexual verbal”, reitera el estudio, explicando que ese tipo de comportamiento no es “poco común”: buena parte de las “consultas tempranas” a Cortana, el asistente de Microsoft, “sondeaban su vida sexual”.

Voces neutras

La directora de la UNESCO para la Igualdad de Género, Saniye Gülser Corat, señaló que el mundo debe prestar “mucha más atención” a las tecnologías de Inteligencia Artificial y pidió que los asistentes no se conviertan en mujeres por defecto, trasladando a las empresas la necesidad de desarrollar una máquina de género neutral que no sea ni hombre ni mujer, programándola además para afear los insultos machistas y el lenguaje abusivo.

Ha reiterado, asimismo, la necesidad de que el asistente se identifique como “no humano” al comienzo de todas las interacciones con personas. Lo cierto es que Apple dotó de voz masculina a Siri en 2013 y es la predeterminada hoy en día para idiomas como el inglés británico, el árabe o el francés. Según la BBC, un grupo de lingüistas, ingenieros y diseñadores de sonido están experimentando con una voz digital sin género, pero hecha de voces reales, que se llamaría Q. Pero todavía no es una realidad.

#VocesEnIgualdad

En nuestro país, a finales de 2018, la Confederación Nacional de Mujeres en Igualdad, la Asociación de Hombres por la Igualdad de Género (AHIGE) y la agencia Tango lanzaban una campaña en varias ciudades reivindicando la igualdad en los asistentes virtuales. Así, empapelaron las calles con carteles en los que se podían leer frases como “Siri, ponme el fútbol”, “Alexa, hazme la compra” o “Cortana, envía un email”.

Tampoco se olvidaban de Irene, la voz de Renfe; ni de Sara, la de Correos. Ya denunciaban antes de conocerse este informe que se estaba proyectando una imagen de mujer “servicial” que está perpetuando “un estereotipo de género y dificulta el cambio social”. Por eso, con su campaña, pretendían “combatir” la desigualdad de que “los hombres mandan y las mujeres obedecen”.

[Más información: Boda con un holograma: los 'sí quiero' más futuristas se dan en Japón]