Apple y Google se han visto obligadas a detener los programas internos que permitían que empleados escuchasen fragmentos de audio grabados con sus asistentes personales; aunque los motivos de esta pausa son diferentes en cada caso.

Noticias relacionadas

Los asistentes personales prometen ser capaces de resolver cualquier duda y hacer lo que queramos gracias a sus sistemas automatizados, sólo con usar la voz. Sin embargo, estos algoritmos no son perfectos, y es muy común que estos asistentes se activen aunque no hayamos dicho nada, o que no comprendan la orden que hemos dado.

En esos casos, los desarrolladores envían los sonidos a un equipo de empleados, que se encarga de escuchar el audio grabado para ayudar a los algoritmos. Se encargan de marcar falsos positivos y permiten que los sistemas "aprendan" nuevos acentos o palabras.

Google obligada a dejar de escuchar a los europeos

Estas prácticas son muy comunes, pero no son precisamente promocionadas por los creadores de estos sistemas. Si nos fijamos en el marketing de estos asistentes, se da a entender que sólo un ordenador podrá escuchar y analizar lo que decimos. Y no parece haber ningún asistente que se salve.

En cuanto los medios se hicieron eco de estas prácticas, las agencias de protección fueron rápidas en investigar, y ya tenemos los primeros resultados. La primera afectada es Google, que se ha visto obligada por las autoridades alemanas a parar temporalmente la revisión manual de registros de audio.

Google Home Google

La decisión viene del Comisionado de Protección de Datos de Hamburgo, pero afecta a toda la Unión Europea; la prohibición llega después de que los medios del país obtuviesen fragmentos de sonido filtrados, supuestamente de grabaciones tomadas con un dispositivo Google Home. Estas grabaciones habían acabado en manos de un contratista, encargado de revisar los sonidos.

La suspensión de este servicio es temporal, y sólo debería durar tres meses, hasta que el Comisionado comprenda mejor si estas prácticas afectan a la privacidad de los usuarios; Google Assistant y Google Home pueden seguir funcionando, pero dependerán únicamente de los algoritmos desarrollados por Google.

Google afirma que ya paró las revisiones de audios internamente, en cuanto se publicaron los artículos sobre los audios filtrados, mientras realizaba una investigación interna.

Apple hace lo mismo con Siri para evitar problemas

Aunque el resto de asistentes personales no se ha visto afectado por esta decisión, el Comisionado también ha tenido palabras para Apple y Amazon, lanzando una "invitación" a revisar sus políticas.

Aparentemente Apple ha leído entre líneas, porque ha anunciado que ha suspendido el programa de revisión de audios de Siri. Fue la semana pasada cuando se reveló que aproximadamente el 1% de las activaciones diarias de Siri eran escuchadas por empleados. Entre las grabaciones estarían "encuentros sexuales" y información potencialmente confidencial.

En el caso de Siri, este proceso de revisión por humanos se usa para saber si Siri ha sido activada por error, o si está escuchando las peticiones de los usuarios correctamente. Apple llama a este proceso "calificación", y afirma que los audios no tienen información relacionada con personas ni identificadores personales.

Debido al escándalo, Apple ha decidido pausar este proceso motu propio, mientras realiza una investigación interna. Cuando vuelva a implementarlo, Apple promete que incluirá una opción en el software que nos permitirá desactivarlo, para que nadie pueda escuchar lo que decimos incluso por error.

Siri en iOS Apple

Esta polémica ha hecho daño a una Apple que ha centrado sus recientes campañas de marketing en la privacidad, llegando a comparar sus políticas con las de Google o Facebook.

Curiosamente, la que aún no ha dicho nada al respecto es Amazon. Y decimos esto porque fue precisamente Alexa la que inició la ronda de escándalos de privacidad, cuando se descubrió que los empleados no sólo escuchaban lo que decíamos, sino que se lo compartían entre ellos. En respuesta, Amazon lanzó una funcionalidad que nos permite borrar lo que hemos dicho.