Un grupo de altavoces inteligentes Amazon Echo, incluidos los modelos Echo Studio, Echo y Echo Dot.  (Foto de Neil Godwin/Future Publishing a través de Getty Images)
Agrandar / Un grupo de altavoces inteligentes Amazon Echo, incluidos los modelos Echo Studio, Echo y Echo Dot. (Foto de Neil Godwin/Future Publishing a través de Getty Images)

Revista T3/imágenes falsas

Investigadores académicos han desarrollado un nuevo exploit de trabajo que se apodera de los altavoces inteligentes Amazon Echo y los obliga a abrir puertas, hacer llamadas telefónicas y realizar compras no autorizadas, así como controlar hornos, hornos de microondas y otros dispositivos inteligentes.

El ataque funciona utilizando el altavoz del dispositivo para emitir comandos de voz. Siempre que el discurso contenga la palabra de activación del dispositivo (generalmente «Alexa» o «Echo») seguida de un comando permitido, Echo lo ejecutará, según descubrieron los investigadores de la Universidad Royal Holloway en Londres y la Universidad de Catania en Italia. Incluso cuando los dispositivos requieren confirmación verbal antes de ejecutar comandos confidenciales, es trivial eludir la medida agregando la palabra «sí» unos seis segundos después de que se emite el comando. Los atacantes también pueden explotar lo que los investigadores llaman «FVV», o vulnerabilidad de voz completa, que permite a Echos ejecutar comandos que emite sin reducir temporalmente el volumen del dispositivo.

Alexa, hackéate a ti mismo

Debido a que el truco usa la funcionalidad de Alexa para obligar a los dispositivos a emitir comandos que ellos mismos emiten, los investigadores lo llamaron «AvA», abreviatura de Alexa vs. Alexa. Solo requiere unos segundos de estar cerca de un dispositivo vulnerable mientras está encendido para que un atacante pronuncie un comando de voz que le indique que se empareje con el dispositivo habilitado para Bluetooth de un atacante. Siempre que el dispositivo esté dentro del alcance de radio del Echo, el atacante puede emitir comandos.

El ataque «es el primero en explotar la vulnerabilidad para emitir comandos arbitrarios en los propios dispositivos Echo, lo que permite que un atacante los controle durante un período prolongado de tiempo», escribieron los investigadores en un artículo publicado hace dos semanas. «Con este trabajo, eliminamos la necesidad de tener un altavoz externo cerca del dispositivo de destino, lo que aumenta la probabilidad general de un ataque».

Una variación del ataque utiliza una estación de radio maliciosa para generar los comandos autoemitidos. Este ataque ya no es posible, como se muestra en el documento del parche de seguridad publicado por el fabricante de Echo, Amazon, en respuesta a la investigación. Los investigadores han confirmado que los ataques contra dispositivos Echo Dot de tercera y cuarta generación funcionan.

Espósito et al.

AvA comienza cuando un dispositivo Echo vulnerable se conecta al dispositivo del atacante a través de Bluetooth (y para Echoes sin parches, cuando reproducen la estación de radio maliciosa). A partir de ahí, el atacante puede usar una aplicación de texto a voz u otros medios para transmitir comandos de voz. Aquí hay un video de AvA en acción. Todas las variaciones del ataque siguen siendo posibles, excepto lo que se muestra entre 1:40 y 2:14:

Demostración de Alexa contra Alexa.

Los investigadores descubrieron que podían usar AvA para obligar a los dispositivos a realizar una variedad de comandos, muchos de los cuales tenían serias implicaciones de privacidad o seguridad. Las posibles acciones maliciosas son:

  • Controle otros dispositivos inteligentes, p. B. apagar las luces, encender un horno de microondas inteligente, configurar el calentador a una temperatura insegura o desbloquear las cerraduras de las puertas inteligentes. Como se mencionó anteriormente, cuando los ecos requieren confirmación, el adversario solo necesita agregar «sí» al comando unos seis segundos después de la solicitud.
  • Llame a cualquier número de teléfono, incluido uno controlado por el atacante, para que pueda escuchar los sonidos cercanos. Si bien los ecos usan una luz para indicar que están en una llamada, los dispositivos no siempre son visibles para los usuarios y es posible que los usuarios menos experimentados no sepan lo que significa la luz.
  • Realizar compras no autorizadas desde la cuenta de Amazon de la víctima. Aunque Amazon envía un correo electrónico notificando a la víctima de la compra, es posible que se pierda el correo electrónico o que el usuario pierda la confianza en Amazon. Alternativamente, los atacantes también pueden eliminar elementos que ya están en el carrito de compras de la cuenta.
  • Manipular el calendario previamente vinculado de un usuario para agregar, mover, eliminar o cambiar eventos.
  • Imitar habilidades o lanzar cualquier habilidad a elección del atacante. Esto, a su vez, podría permitir a los atacantes obtener contraseñas e información personal.
  • Recuperar todas las declaraciones hechas por la víctima. Con lo que los investigadores llaman un «ataque de máscara», un atacante puede interceptar comandos y almacenarlos en una base de datos. Esto podría permitir al atacante extraer datos privados, recopilar información sobre las habilidades utilizadas e inferir los hábitos de los usuarios.

Los investigadores escribieron:

Con estas pruebas, demostramos que AvA se puede usar para emitir comandos arbitrarios de cualquier tipo y longitud con resultados óptimos; específicamente, un atacante puede controlar luces inteligentes con una tasa de éxito del 93 % y un éxito del 100 % en la compra de artículos no deseados en Amazon Times, y manipular [with] un calendario vinculado con una tasa de éxito del 88 %. Los comandos complejos que deben reconocerse correctamente en su totalidad para tener éxito, como llamar a un número de teléfono, tienen una tasa de éxito casi óptima, en este caso del 73 %. Además, los resultados que se muestran en la Tabla 7 demuestran que el atacante puede configurar con éxito un ataque de enmascaramiento de voz a través de nuestra capacidad de ataque de máscara sin ser detectado, y todas las expresiones emitidas se pueden recuperar y almacenar en la base de datos del atacante, es decir, 41 en nuestro caso.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí