Assistant numérique : des chercheurs cachent des commandes dans des musiques et textes parlés
Le 14 mai 2018 à 09h32
2 min
Internet
Internet
Les enceintes connectées se font régulièrement berner par des « Ok Google » ou autres « Hey Alexa » contenus dans des spots publicitaires par exemple (voir ici).
L'année dernière, des chercheurs utilisaient des ultrasons pour envoyer des messages inaudibles pour les humains aux assistants numériques. Baptisée DolphinAttack, cette technique a fait l'objet d'une publication scientifique. Depuis, elle s'est améliorée, avec une portée plus importante notamment.
Après avoir dissimulé des commandes dans des vidéos YouTube, des étudiants de l'université de Berkeley sont allés plus loin en les cachant dans des enregistrements musicaux et des textes parlés : « Pendant qu'un humain entend quelqu'un parler ou un orchestre jouer, le haut-parleur Echo d'Amazon peut entendre une instruction pour ajouter quelque chose à votre liste de courses » explique le Wall Street Journal.
Interrogé par nos confrères, un des scientifiques explique n'avoir aucune preuve que cette technique soit actuellement utilisée par des pirates, mais que ce n'est qu'une question de temps : « Mon hypothèse est que les personnes malveillantes emploient déjà des gens pour faire ce que je fais ».
Les chercheurs donnent quelques exemples. Après un traitement, la phrase « without the dataset the article is useless » est reconnue comme étant « okay google browse to evil dot com » par un logiciel, alors qu'un humain continue d'entendre la version originale.
Le 14 mai 2018 à 09h32
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 14/05/2018 à 08h53
Mais tout es sécurisé, vous ne risquez rien, ce n’est pas exploité et google fais son maximum pour sécuriser sa plateforme bla bla bla …
Au moins avec le Nabaztag (puis Karotz) tu prenais pas ce genre de risques ….
Le 14/05/2018 à 09h50
Génial " />
Le 14/05/2018 à 12h59
Excellent
Le 14/05/2018 à 13h15
à priori une solution serait de limiter le spectre de fonctionnement des micros aux fréquences audibles et émissibles par un humain.
ça semble pas ultra compliqué au premier abord, mais je ne suis pas du tout spécialiste du son…
Le 14/05/2018 à 13h44
@hellmut je suis 100% d’accord. Cela peut-être fait du côté logiciel facilement mais après je ne sais pas si cela risque de poser problème autrement pour la reconnaissance vocal.
Le 14/05/2018 à 15h47
je vois pas en quoi: personne ne parle en ultrasons.
du coup la reconnaissance des ultrasons n’est pas de la reconnaissance vocale. ^^
Le 14/05/2018 à 19h17
Et si je veux que mon dauphin puisse utiliser Google Home hein ??
Le 14/05/2018 à 22h32
C’est assez tordu comme faille, j’imagine que pour effectuer la reconnaissance vocale il y a forcément conversion A>D et du coup je me demande ce qu’ils utilisent comme ADC pour que le système arrive à choper les ultrasons et si le fait d’utiliser une fréquence d’échantillonnage aussi élevée était juste une connerie de conception ou avait un but précis.
Le 15/05/2018 à 15h03
Oui mais comment le gouvernement peut envoyer des commandes vocales secrètes venant d’une émission TV après ?
Je me demandais juste si pour d’autres raisons ces sons peuvent être utiles. Par exemple pour identifier une musique ou un morceau sonore.
Le 16/05/2018 à 08h12
ah mais oui, pardon.
comment va Flipper au fait? " />
Le 16/05/2018 à 17h41
Essaie donc “Ok Alexa” pour voir la réponse