C’est le résultat d’un travail commun entre des scientifiques des universités du Michigan et de Tokyo. L’attaque est rendue possible par la présence sur les enceintes de micros exploitant des MEMS, des micropuces électromécaniques. Celles-ci peuvent malheureusement interpréter par erreur un signal lumineux comme un son.
L’idée est donc de moduler l’amplitude d’un laser pour transmettre une commande à l’enceinte. Les chercheurs laissent imaginer une utilisation potentielle : un voleur qui aurait accès à une fenêtre donnant sur l’enceinte pourrait lui demander de couper l’alarme et désactiver les caméras.
La technique n’est bien sûr pas sans contrainte, la principale étant d’avoir l’enceinte en ligne de mire, et de pouvoir cibler très précisément le micro qui, selon les modèles, n’est pas si simple à voir. En outre, l’enceinte ne manquera pas de répondre à haute voix à la commande, ce qui pourrait attirer l’attention.
L’attaque ne nécessite en tout cas pas un énorme investissement : 18 dollars de pointeurs laser, 339 de driver laser, 28 pour un amplificateur de son et environ 200 dollars de lentilles. Elle n’est pas non plus limitée aux seules enceintes connectées, puisque de nombreux smartphones et tablettes incorporent des MEMS.
L’iPhone XR et l’iPad 6 se sont ainsi révélés vulnérables. Mais les enceintes connectées représentent un danger largement accru puisqu’elles sont fixes. Les Google Home et Home Mini, la Nest Cam IQ, plusieurs déclinaisons de l’Amazon Echo et la Portal Mini de Facebook ont ainsi été attaquées avec succès.
Les chercheurs précisent qu’actuellement, aucune attaque de ce genre ne semble avoir été repérée dans la nature, ce qui rassurera les clients de ce type de produit. En outre, l’étude fournit plusieurs pistes d’améliorations, sur la base d’idées simples. Par exemple, s’assurer que les micros sont cachés, ou exiger qu’au moins deux d’entre eux aient capté la commande pour la valider. Après tout, toutes les enceintes en possèdent plusieurs.
Ils estiment également que chaque assistant (Alexa, Home, Siri…) devrait être accompagné d’une mesure d’authentification pour valider les commandes sensibles, comme tout ce qui touche à un système d’alarme.
À Ars Technica, Amazon et Google ont confirmé qu’une enquête était en cours, en collaboration avec les chercheurs. Apple et Facebook n’ont pas encore réagi. Plusieurs vidéos ont été publiées par les chercheurs pour expliquer le fonctionnement global de leur technique et fournir des démonstrations. Elles sont toujours en anglais.
Commentaires