Hackean a Siri y Alexa con comandos de voz silenciosos
Los asistentes inteligentes pueden ser atcados con una frecuencia inaudible al oído humano.
Algunos asistentes inteligentes como Alexa han estado sumidos en la controversia
ante la posibilidad grave y factible de que espíen en todo momento a
sus usuarios. Pero encima de todo eso resulta que serían bastante
fáciles de hackear en aparente silencio, sin que la víctima se percate.
De acuerdo con una reciente investigación de la Universidad de Zhejiang, en China, es posible vulnerar cualquier sistema que tenga instalado un asistente inteligente mediante una metodología creada por ellos, y denominada como DolphinAttack, en donde estos programas son controlados mediante comandos de voz inaudibles para el oído humano.
Inspirados por el modo de comunicación entre los delfines, los investigadores se dispusieron a montar esta prueba de concepto, en donde codificaron en una frecuencia ultrasónica, y aparentemente silenciosa, los comandos de voz necesarios para activar diversos asistentes inteligentes, comprobando que tomar control sobre ellos era fácil y directo.
Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana y Alexa serían totalmente vulnerables a este tipo de hackeo, donde la frecuencia inaudible, adaptada para ser reconocida como la voz del dueño del dispositivo, puede activar a distancia el dispositivo vulnerado.
El riesgo de que Siri sea controlado a distancia sin que el dueño se dé cuenta puede lucir inofensivo, pero bastaría con ese acceso para ingresar a un sitio web que permita instalar en automático un software de intrusión más riesgoso.
De acuerdo con una reciente investigación de la Universidad de Zhejiang, en China, es posible vulnerar cualquier sistema que tenga instalado un asistente inteligente mediante una metodología creada por ellos, y denominada como DolphinAttack, en donde estos programas son controlados mediante comandos de voz inaudibles para el oído humano.
Inspirados por el modo de comunicación entre los delfines, los investigadores se dispusieron a montar esta prueba de concepto, en donde codificaron en una frecuencia ultrasónica, y aparentemente silenciosa, los comandos de voz necesarios para activar diversos asistentes inteligentes, comprobando que tomar control sobre ellos era fácil y directo.
Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana y Alexa serían totalmente vulnerables a este tipo de hackeo, donde la frecuencia inaudible, adaptada para ser reconocida como la voz del dueño del dispositivo, puede activar a distancia el dispositivo vulnerado.
El riesgo de que Siri sea controlado a distancia sin que el dueño se dé cuenta puede lucir inofensivo, pero bastaría con ese acceso para ingresar a un sitio web que permita instalar en automático un software de intrusión más riesgoso.
Comentarios
Publicar un comentario