Les enceintes connectées vulnérables à une attaque par laser
Le 06 novembre 2019 à 09h39
3 min
Sciences et espace
Sciences
C’est le résultat d’un travail commun entre des scientifiques des universités du Michigan et de Tokyo. L’attaque est rendue possible par la présence sur les enceintes de micros exploitant des MEMS, des micropuces électromécaniques. Celles-ci peuvent malheureusement interpréter par erreur un signal lumineux comme un son.
L’idée est donc de moduler l’amplitude d’un laser pour transmettre une commande à l’enceinte. Les chercheurs laissent imaginer une utilisation potentielle : un voleur qui aurait accès à une fenêtre donnant sur l’enceinte pourrait lui demander de couper l’alarme et désactiver les caméras.
La technique n’est bien sûr pas sans contrainte, la principale étant d’avoir l’enceinte en ligne de mire, et de pouvoir cibler très précisément le micro qui, selon les modèles, n’est pas si simple à voir. En outre, l’enceinte ne manquera pas de répondre à haute voix à la commande, ce qui pourrait attirer l’attention.
L’attaque ne nécessite en tout cas pas un énorme investissement : 18 dollars de pointeurs laser, 339 de driver laser, 28 pour un amplificateur de son et environ 200 dollars de lentilles. Elle n’est pas non plus limitée aux seules enceintes connectées, puisque de nombreux smartphones et tablettes incorporent des MEMS.
L’iPhone XR et l’iPad 6 se sont ainsi révélés vulnérables. Mais les enceintes connectées représentent un danger largement accru puisqu’elles sont fixes. Les Google Home et Home Mini, la Nest Cam IQ, plusieurs déclinaisons de l’Amazon Echo et la Portal Mini de Facebook ont ainsi été attaquées avec succès.
Les chercheurs précisent qu’actuellement, aucune attaque de ce genre ne semble avoir été repérée dans la nature, ce qui rassurera les clients de ce type de produit. En outre, l’étude fournit plusieurs pistes d’améliorations, sur la base d’idées simples. Par exemple, s’assurer que les micros sont cachés, ou exiger qu’au moins deux d’entre eux aient capté la commande pour la valider. Après tout, toutes les enceintes en possèdent plusieurs.
Ils estiment également que chaque assistant (Alexa, Home, Siri…) devrait être accompagné d’une mesure d’authentification pour valider les commandes sensibles, comme tout ce qui touche à un système d’alarme.
À Ars Technica, Amazon et Google ont confirmé qu’une enquête était en cours, en collaboration avec les chercheurs. Apple et Facebook n’ont pas encore réagi. Plusieurs vidéos ont été publiées par les chercheurs pour expliquer le fonctionnement global de leur technique et fournir des démonstrations. Elles sont toujours en anglais.
Le 06 novembre 2019 à 09h39
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 06/11/2019 à 09h25
ça peut être pratique si on a perdu la télécommande de la télé. " />
Le 06/11/2019 à 09h27
y a plus simple :http://www.commitstrip.com/fr/2019/07/18/your-smart-homes-achilles-heel/
;)
Le 06/11/2019 à 10h07
Ok je comprend l’idée, mais la faille de sécurité ce n’est pas d’autoriser l’ouverture de la maison à la voix ?
C’est un peu comme si on me disait que si j’installe un virus avec des droits administrateur je risque d’avoir des soucis avec mon PC …
Le 06/11/2019 à 10h13
C’est sur que si on a une box servant a la domotique mais qu’on l’active pas il y a moins de soucis.
C’est comme les cartes bancaires, il suffit de les couper en petit morceaux puis les brûlé pour que les failles ne soient pas exploitable.
Perso allumer éteindre l’alarme + caméra à la voix de l’intérieur de la maison je vois pas de soucis.
Le 06/11/2019 à 10h14
« Par exemple, s’assurer que les micros sont cachés, ou exiger qu’au moins d’entre eux aient capté la commande pour la valider. »
Heu… Combien ? Deux, trois, quatre, dix… ?
Le 06/11/2019 à 10h25
Oui mais sans mot de passe c’est juste idiot. Si je peux désactiver l’alarme et la caméra à la voix je n’ai qu’a rentrer par effraction et ensuite couper la caméra et l’alarme …
Ça n’a pas de sens. Il ne devrait pas être possible de désactiver un système de sécurité sans moyen authentification. Et si quelqu’un met en place un système où c’est possible le problème vient de l’utilisateur.
En fait en y réfléchissant le problème du laser viendrait plus pour des objets connectés non-liés à la sécurité.
Par exemple allumer le four quand on est absent
Le 06/11/2019 à 10h38
Perso les solutions de domotiques que j’ai sont en reconnaissance vocal (ca fonctionne pas si c’est pas ma voix. Je ne sais pas si le laser passe cette sécu…
Le 06/11/2019 à 10h43
J’adore l’article, un vent de panique souffle alors sur la frêle nuque de tous les possesseurs d’enceinte connecté. Sauf que en fait…non.
La vidéo “résumé de la technique” est légèrement mensongère. Avec un petit personnage qui tient un petit pointeur laser dans sa petite main, pouf! Ouverture! Ben non c’est pas si simple.
Déjà il faut veiller à rester parfaitement immobile sous peine de désaligner le laser ou perturber le signal, ensuite il faut manipuler le pointeur monté sur un téléobjectif pas franchement passe-partout non plus comme le montre l’une des vidéo de démo. Et puis utiliser cette méthode de nuit… bonjour la discrétion.
Le mieux c’est qu’un simple brise vue diffusant à 10€ assure une protection efficace contre cette méthode.
C’est un bel exercice de style mais madame michu peut dormir tranquille.
Le 06/11/2019 à 10h46
Le 06/11/2019 à 11h13
Il y a fort longtemps dans une galaxie très très lointaine….
Les enceintes connectées vulnérables à une attaque par laser
Taaaa taaa tatata taaaaaaaaaa ta, tatata taaaaaaaaaa ta, ta ta tin
" />
Le 06/11/2019 à 11h29
Ça dépasse de très loin mes compétences, mais si on part du principe que la reconnaissance vocale est faite via la fréquence, je suppose que le laser pourrait “émuler” la bonne fréquence, mais ce serait via brute force et vu le temps entre chaque essai il faudrait tomber sur quelqu’un qui t’en veux personnellement.
Mais du coup j’ai une question, tu utilises quoi en domotique pour avoir la reconnaissance vocale ? C’est une solution maison ?
Le 06/11/2019 à 13h27
Il s’en suivit la découverte du siècle qui pouvait mettre a mal toutes les entreprises de sécurités numériques :
“Plus il y a de serrures plus il y a de crochetage possible.”
Ce a quoi elles répondirent :
“Nous avons déployé un correctif, il faut se mettre a jour.”
Bluffant ainsi la horde de consommateur mécontent pour les rendre dociles et dépendants jusqu’à la prochaine faille.
Seul quelques-uns ne se sont pas laissé avoir et se sont retrouvé exclus progressivement du groupe en étant parfois snobé par leurs proches “oh le boloss qui sait pas faire ses mises a jours” ou partant en exil d’eux mèmes “quel bande de con, je me casse”.
Ainsi les entreprises de sécurité numériques on survécurent , les opposants était exclus, les pirates était soit en prison soit embauché et le client continuait a augmenter le nombre de serrure tout en payant ses mises a jours." />
Le 06/11/2019 à 14h03
citation xkcd de rigueur…
Le 06/11/2019 à 16h32
Ce que je ne comprend pas, c’est comment un composant peut interpréter un signal lumineux comme un son.
Le 06/11/2019 à 16h51
Les MEMS réagissent de la même manière en captant un son ou un signal lumineux : ils transforment ça en signal électrique.
Le 06/11/2019 à 16h58
Le 06/11/2019 à 20h12
Le 06/11/2019 à 22h04
Le 07/11/2019 à 02h49
Pour l’histoire de l’open space on a déjà eu des téléphones qui se sont fait déverrouillé du aux sons que fournissait les imprimantes 3d
Mais c’était plus fréquent d’avoir un OK Google
Ça a refroidi tellement de visiteurs xD
Le 07/11/2019 à 10h26
Les seuls OK google que j’ai entendu comme ca c’est soit :
J’utilise Siri, j’ai parfois le pb 2, jamais le 1.
Donc oui c’est plutôt sécure