Un grupo de estudiantes de la universidad americana de Berkeley ha descubierto una vulnerabilidad en los asistentes de voz de Apple, Amazon y Google. Y es que según afirman, sería posible controlar a Siri, Alexa y Google Assistant mediante mensajes ocultos e indetectables por el oído humano, y que podrían esconderse en cualquier vídeo o canción.
Anunciando su descubrimiento en primicia a través del periódico New York Times, han afirmado que esto podría suponer un riesgo de seguridad importante para los usuarios de altavoces inteligentes. Y es que los dispositivos y asistentes no estarían siendo hackeados, sino simplemente engañados.
Gracias a este experimento, han demostrado la capacidad de dar órdenes a estos asistentes escondiendo pequeños mensajes en canciones, e incluso a través de ruido blanco, completamente imperceptible por una persona. Esto implica una nueva amenaza y formas de “ataques”, pudiendo ahora esconderse estos mensajes subliminales tanto en cualquier canción de la radio, en anuncios de televisión, e incluso en vídeos de YouTube.
LEER MAS: https://www.muycomputer.com/2018/05/12/gran-vulnerabilidad-asistentes-voz/