Un nouveau piratage laser découvert pour les appareils équipés de microphones MEMS (systèmes micro-électromécaniques) rend l’iPhone, le HomePod, Google Home, Amazon Echo et plus vulnérables aux attaques en ligne de mire jusqu’à plusieurs centaines de mètres de distance.
Rapporté par Ars TechnicaCe type d’attaque s’appelle « Light Commands » et a été découvert par des chercheurs de l’Université des Electro-Communications et de l’Université du Michigan. Les Light Commands permettent de pirater Siri, Google Assistant, Alexa et bien d’autres à distance, à condition que l’attaquant ait une ligne de vue sur les microphones de l’appareil.
Voici comment cela fonctionne :
En éclairant ces systèmes à commande vocale avec un laser de faible puissance, les pirates peuvent injecter les commandes de leur choix à une distance pouvant atteindre 110 mètres. Étant donné que les systèmes à commande vocale ne nécessitent généralement pas que les utilisateurs s’authentifient, l’attaque peut souvent être menée sans mot de passe ou code PIN. Même lorsque les systèmes nécessitent une authentification pour certaines actions, il peut être possible de forcer le code PIN, car de nombreux appareils ne limitent pas le nombre de tentatives qu’un utilisateur peut faire. Entre autres choses, des commandes basées sur la lumière peuvent être envoyées d’un bâtiment à un autre et traverser le verre lorsqu’un appareil vulnérable est placé près d’une fenêtre fermée.
Comme l’a noté Arsles chercheurs ont effectué des tests limités avec iPhones, tablettes, enceintes connectéeset les écrans intelligents, mais ils pensent que « tous les appareils qui utilisent des microphones MEMS sont sensibles aux attaques Light Commands ».
Les commandes lumineuses présentent certaines limitations, comme le fait qu’une partie malveillante doit avoir une ligne de vue directe sur un appareil et être capable de positionner très précisément un laser sur le microphone d’un appareil.
Cependant, les chercheurs ont mené des attaques dans des conditions modérément réalistes et le manque d’authentification pour les assistants vocaux qui peuvent contrôler les appareils domestiques intelligents comme les serrures de porte, les portes de garage, etc. est certainement préoccupant.
Plus intéressant encore, certains tests ont même été réalisés avec seulement un pointeur laser à 18 $, un pilote laser et un amplificateur audio pour un total de moins de 400 $.
Les chercheurs ont créé un site Web détaillant le fonctionnement des commandes lumineuses et s’associent déjà à Apple, Google, Amazon et d’autres pour élaborer des « mesures défensives ».
Découvrez-en plus sur les vulnérabilités des commandes Light dans les vidéos ci-dessous :