apple homepod asistente virtual apple

apple homepod asistente virtual apple

Software

Los asistentes virtuales se pueden hackear con mensajes ocultos en música

Los asistentes virtuales son susceptibles de ser hackeados mediante comandos ocultos en la música.

11 mayo, 2018 12:34

Noticias relacionadas

Estudiantes de la Universidad de California en Berkeley (Estados Unidos) han descubierto que es posible hackear los asistentes virtuales mediante comandos ocultos en música, que además no pueden ser escuchados por humanos. Cualquiera de los asistentes virtuales más conocidos (Siri, Google Assistant o Amazon Alexa) son susceptibles de sufrir este tipo de ataques.

Esta vulnerabilidad consiste en la emisión de sonidos que los humanos no podemos percibir pero que sí lo pueden hacer estos asistentes. Imagina que alguien reproduce uno de estos sonidos dentro de una canción por la radio; todos los asistentes que estén activos cerca de un altavoz que esté reproduciendo esa emisora estarían escuchando esas órdenes ocultas en la canción.

Esto ya se ha hecho anteriormente pero sin enmascararlo de esta forma, por lo que ahora la situación es mucho más complicada, pues la persona no podría saber que esto está ocurriendo: el año pasado la conocida serie South Park ordenó a millones de Amazon Echo y Google Assistant que estaban colocados cerca de los televisores donde se estaba emitiendo la serie a realizar varias órdenes.

Estos asistentes virtuales se encuentran en escucha constante, y no diferencian entre tu voz o la de un robot, igual que no diferencian entre las órdenes emitidas por una frecuencia que podemos escuchar o por frecuencias que no, por lo que es perfectamente posible la posibilidad de que sean activados por comandos ocultos. En este vídeo lo podemos ver claramente:

En él, vemos el uso de la técnica conocida como DolphinAttack. Primero se muestra un teléfono que emite un comando que todos podemos escuchar, y un teléfono con Siri realiza lo que le ordena. Hasta aquí todo correcto. Pero después, conectan el teléfono a un altavoz capaz de generar frecuencias que son imperceptibles para el humano y, sorprendentemente, el otro móvil con Siri también ejecuta las órdenes. Sin que nos hayamos dado cuenta, se ha emitido una orden oculta al asistente virtual.

Sonidos ininteligibles por humanos, pero sí por asistentes

 

google home asistente virtual

google home asistente virtual

Y lo que se ha descubierto ahora es la posibilidad de ocultar estos sonidos que no podemos detectar dentro de otros sonidos, como canciones, aprovechándose del ruido blanco.

Estas frecuencias pueden ser generadas por cualquier altavoz, por lo que permite que cualquier pueda hackear nuestro asistente personal. Por ejemplo, un simple vídeo de YouTube, una llamada de teléfono con manos libres, una canción en la radio o un programa de televisión son solo algunas de las vías a través de las que se podría hackear un asistente personal mediante este sistema.

Y ahora, imagina que esa orden emitida sin que nosotro nos enteremos es que se desbloquee la puerta inteligente de nuestra casa. Por suerte, los asistentes virtuales tienen protección ante este comando en concreto, igual que otros muy peligrosos, requiriendo estos comandos tan específicos que se desbloquee el teléfono para verificar la identidad del ordenante; al menos es así en el caso de Apple. Pero hay otros muchos comandos que se pueden ejecutar sin ningún tipo de seguridad.