Avatar

Jeniffer Espinosa

7 noviembre, 2019

Investigadores logran hackear a distancia asistentes de voz con un simple láser

Un grupo de investigadores ha demostrado lo sencillo que es vulnerar los diversos asistentes de voz del mercado tales como Siri, Alexa y Google Assistant, utilizando solamente un láser.

Los asistentes de voz se han vendido al mundo como facilitadores de vida, imagen que en los últimos días se ha derrumbado de a poco por denuncias de espionaje entre otras relacionadas con la seguridad y privacidad de los usuarios, sin embargo algunos siguen viendo a estos asistentes como una posibilidad de interconexión entre dispositivos, de acercamiento a la era del 5G y el Internet de las Cosas.

Investigadores de Tokio y la Universidad de Michigan han realizado una investigación financiada por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA), demostraron que estos no son tan seguros como lo prometen, pues con un láser pudieron burlar la interfaz de comandos de voz de dispositivos con un asistente inteligente, desde parlantes hasta teléfonos móviles de diversas marcas, Amazon, Apple, Google, Tesla, Ford, Google Home, en los siguientes dispositivos: Nest, Echo Plus, Echo Show, Dot, Facebook Portal Mini, Fire Cube TV, EchoBe 4, iPhone XR, iPads, Samsung Galaxy S9 y Google Pixel 2.

Los estudiosos del campo dejaron en evidencia los fallos, demostrando que al apuntar con láser, que había sido previamente codificado con comandos básicos, al micrófono de los parlantes del dispositivo mientras se modulaba su frecuencia, era posible engañarlo haciendo caso a cualquier comando de voz,  tan riesgoso es que lograron que los dispositivos ejecutaran acciones como abrir la puerta de un garaje de un hogar inteligente y realizar compras de productos a distancias lejanas, así como controlar con éxito un dispositivo Google Home en el cuarto piso de un edificio de oficinas, que estaba a 70 metros del origen del haz de luz.

La explicación argumenta que los asistentes de voz cuentan con un diafragma en el agujero del micrófono el cual vibra con el sonido y reacciona cuando se verifica que la frecuencia es en efecto el comando de voz de un usuario. El láser replica el movimiento y lo convierte en señales eléctricas, de esta manera se puede engañar al asistente, es decir que las señales de luz son entendidas como ondas de voz  al apuntar al micrófono de los parlantes inteligentes,  lo que supone que todo lo que esté conectado al dispositivo puede ser controlado a distancia. Además uno de los factores que más causa preocupación es que el láser puede desestabilizar el dispositivo incluso a grandes distancias entre los 5 y 105 metros.

Un simple haz de luz ha revelado los riesgos de los dispositivos que cuenten con este servicio, argumentando que para generar una solución segura los micrófonos tendrían que rediseñarse de cero. Kevin Fu, profesor asociado de ingeniería eléctrica y ciencias de la computación en la Universidad de Michigan, ha dicho a The New York Times que el resultado de este estudio «abre una clase completamente nueva de vulnerabilidades».

Relacionados