Científicos de la Ruhr-Universitaet en Bochum, Alemania, descubrieron la forma de ocultar comandos inaudibles en archivos de audio, comandos que, aunque imperceptibles para nuestros oídos, pueden tomar el control de los asistentes de voz como Alexa. Según los investigadores detrás de la tecnología, la falla está en la forma en que se diseñó la IA (Inteligencia Artificial).
Es parte de un área creciente de investigación conocida como «adversarial attacks», que están diseñados para confundir las redes neuronales, generalmente de manera visual, como lo ha descubierto Co.Design en el pasado, dejándolas potencialmente vulnerables a los ataques.
En este caso, el sistema «attacked» diseñado por los investigadores de la Ruhr-Universität Bochum puede corromper asistentes personales, como Alexa, Siri o Cortana. Según el profesor Thorsten Holz del Instituto Horst Görtz de Seguridad Informática, su método, llamado «psychoacoustic hiding», muestra cómo los hackers pueden manipular cualquier tipo de onda de audio, desde canciones y el habla hasta el canto de los pájaros, para incluir palabras que solo la máquina puede escuchar, lo que les permite dar órdenes sin que la gente que esta cerca del aparato se de cuenta. El ataque sonará como el canto de una pájaro a nuestros oídos, pero el asistente de voz «escucharía» algo muy diferente.
Los ataques pueden meterse en una aplicación, por ejemplo, o en un comercial de TV o programa de radio, para hackear a miles de personas y potencialmente realizar compras o robar su información privada.
Fuente: fastcompany