echo-amazon-3

echo-amazon-3

Omicrono

Alexa pide cientos de casas de muñecas después de escuchar una orden en televisión

Cientos de usuarios de Amazon Echo se dieron cuenta de lo fácil que es controlar los asistentes personales a distancia, cuando su TV realizó un pedido.

8 enero, 2017 17:01

Un presentador ha conseguido, de manera accidental, activar los dispositivos Alexa de la audiencia y controlar los asistentes personales a distancia.

Alexa, el asistente personal de Amazon, se ha convertido en poco tiempo en una de las grandes alternativas del mercado; sobre todo gracias a la conexión que permite con otros servicios de Amazon, como las compras, Amazon Prime Music y Video, y muchos más. Y todo eso, simplemente con decirlo en voz alta.

Sin embargo, muchos usuarios de Alexa en San Diego maldijeron esta conexión cuando hace unos días el asistente personal se activó por si solo; lo único que hizo fue pedir una casa de muñecas a Amazon, por extraño que suene. Esto le ocurrió a demasiadas personas como para que fuese una coincidencia.

Controlar los asistentes personales a distancia es tan fácil como hablar en voz alta

En estos casos lo primero que podríamos pensar es que Alexa ha sido hackeado, pero eso no explicaría porqué sólo afectó a los usuarios de una zona; o eso, o que las casas de muñecas se han puesto de moda de repente.

casa-de-munecas

casa-de-munecas

Ni una cosa ni otra, lo que realmente ocurrió fue mas sorprendente: la orden de realizar un pedido llegó de la televisión. Aquel día uno de los presentadores de la edición matutina de CW6, Jim Patton, comentó una curiosa noticia; era una niña que compró una casa de muñecas y casi dos kilogramos de galletas a través de Amazon Echo.

“Me encanta la niña diciendo “Alexa me pidió una casa de muñecas”

Las palabras de Patton activaron los dispositivos Amazon Echo (y otros con Alexa) de los que estaban viendo CW6 en aquellos instantes; inmediatamente realizaron el pedido de una casa de muñecas, para sorpresa de sus propietarios.

amazon echo

amazon echo

La clave es que Alexa escucha todo lo que decimos si empezamos por “Alexa”. En este caso concreto, el asistente escuchó mal la orden; Patton dijo “Alexa ordered me a dollhouse”, pero entendió “Alexa order me a dollhouse”, es decir, “Alexa pídeme una casa de muñecas”.

Al menos Amazon ha declarado que es consciente del problema; los que pidieron la casa de muñecas pueden devolverla sin coste. Sin embargo, este incidente ha vuelto a dejar en evidencia que la seguridad de los asistentes personales deja algo que desear.

El gran problema de seguridad de los asistentes personales

Es algo que ya sabíamos, por supuesto; cuando el asistente sólo se activa cuando pulsamos un botón en nuestro smartphone, es fácil de controlar. Cuando se dedica a escuchar todo lo que pasa, y es posible activarlo en cualquier punto de la casa, no tanto.

siri-apple-ios-mac

siri-apple-ios-mac

El año pasado fue Siri la que estuvo en el centro de la polémica;  cuando abrió las puertas de casa de su propietario a un vecino que se lo había pedido. El propietario se había montado su propia “casa inteligente” alrededor de la plataforma de Apple; con un iPad sirviendo como su versión del Amazon Echo.

Por lo tanto, para activar cualquier elemento de la casa sólo tenía que decir en voz alta “Siri, haz esto”. Claro, que cuando descubrió que el vecino podía entrar en su casa cuando quisiera, con pedirlo en voz alta, no le hizo tanta gracia.

kinect-xbox-one-1

kinect-xbox-one-1

En 2014 ocurrió algo similar; el anuncio de Microsoft en el que demostraba las posibilidades de Kinect provocó que miles de Xbox One se encendiesen.

Es curioso que justo ahora que los usuarios están más concienciados por la seguridad, este tipo de vulnerabilidades aparezcan; en las que un atacante ni siquiera tiene que tocar código para usar nuestra cuenta. Sólo usar la voz.