Un fallo de seguridad en Alexa permite la instalación de componentes maliciosos

Un nuevo fallo en Alexa, revelado recientemente por un grupo de investigadores de ciberseguridad, demostró que los delincuentes informáticos han sido capaces de dirigirse a individuos específicos y obtener acceso no autorizado a su biblioteca de voz y a la información de sus cuentas.

«Los altavoces inteligentes y los asistentes virtuales son tan comunes que es fácil pasar por alto cuántos datos personales tienen y su papel en el control de otros dispositivos inteligentes en nuestros hogares».

Oded Vanunu, jefe de investigación de vulnerabilidades de productos en Check Point Research.

La vulnerabilidad, ahora parcheada por Amazon, no solo podría haber dado acceso a los ciberdelincuentes a tu información privada, sino que incluso se podrían haber instalado nuevas habilidades en el dispositivo. La noticia supone un nuevo golpe para los asistentes de voz, que han demostrado tener problemas de seguridad y privacidad desde su lanzamiento. Aún así, Amazon ha negado que haya habido casos conocidos de individuos que hayan sido el blanco de los piratas informáticos a través de esta técnica en particular.

¿Por qué los piratas informáticos quieren robar tu historial de voz?

Si logran obtener suficientes grabaciones de voz, resultaría fácil para un ciberdelincuente forzar a un dispositivo como Alexa a hacer algo que el dispositivo no debería hacer. Por ejemplo, podrían hacer que el dispositivo acceda a un sitio web malicioso o incluso a una cuenta bancaria conectada. Tu voz también puede ser usada para pasar los sistemas de verificación de voz.

Además, las grabaciones de Alexa podrían ser usadas para chantajearte. Aunque aprovechar tantas vulnerabilidades al mismo tiempo no es algo que un hacker promedio pueda hacer, el hecho de que esto haya sido posible durante un tiempo no revelado es, sin duda, aterrador.

El historial de voz también podría ser usado para falsificar audios. Aunque esto no suele ser una preocupación para la gente común, los software de IA inteligente podrían ser capaz de explorar cómo hablas y usar la voz para crear una conversación que nunca existió, una práctica conocida como deep fake. En el mundo actual de las noticias politizadas y falsas, una deep fake puede causar un daño significativo a cualquiera, incluso si más tarde se demuestra que es falsa. Las fake news a veces terminan siendo vistas millones de veces antes de que los administradores de las redes sociales puedan reaccionar y eliminarlas. Estos contenidos suelen ser reproducidos y reutilizados de nuevo, lo que dificulta que que se contengan su difusión.

En estos tiempos de teletrabajo, se escucharán en tu casa conversaciones privadas, así que, como primera medida, te recomendamos desenchufar el altavoz inteligente mientras estés en tu horario laboral.

Fuente: Panda Security

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada.