Dans un article daté du 10 mai pour le New-York Times, Craig Smith révèle que des chercheurs chinois et américains savent depuis deux ans envoyer des ordres indétectables aux oreilles humaines à Siri, Alexa (l’assistant d’Amazon), et Google Assistant.

En laboratoire, ces chercheurs ont pu activer secrètement l’intelligence artificielle des assistants des smartphones et hauts-parleurs connectés, pour leur faire composer des numéros de téléphone ou ouvrir des pages web. Dans des mains mal intentionnées, cette technologie pourrait servir à déverrouiller des portes, passer des commandes sur internet ou transférer de l’argent.

Encore plus fort, en 2016, des étudiants de Berkeley et Georgetown on pu dissimuler des commandes vocales dans des bruits blancs diffusés par YouTube, ordonnant aux appareils connectés de se passer en mode avion ou d’ouvrir des sites web.

Piratage subliminal

Les chercheurs de Berkeley ont publié ce mois-ci leurs recherches qui établissent que les commandes vocales peuvent être cachées dans des enregistrements de discours ou même de musique. Autrement dit, pendant que vous pensez écouter un podcast ou une symphonie de Beethoven, Alexa reçoit l’ordre de passer des commandes sur Amazon.

Selon Nicholas Carlini, doctorant en sécurité informatique à Berkeley et l’un des auteurs de la publication, rien ne prouve que les techniques utilisées ont quitté le labo, mais ce n’est peut-être qu’une question de temps. « Je suppose que certains malfaiteurs ont déjà fait plancher des pirates pour reproduire nos recherches ».

Tromper l’intelligence artificielle embarquée

Cela montre, selon l’auteur de l’article, les limites de l’I.A. qui peut être bernée en modifiant quelques pixels sur une image ou, pour les voitures autonomes, avec des autocollants judicieusement placés sur les panneaux routiers. Une technique similaire est utilisée pour les attaques audio : avec de minces modifications, les chercheurs ont supprimé le son que le système de reconnaissance devait entendre et l’ont remplacé par un autre, interprété différemment, et presque inaudible pour l’Homme.

Amazon garde secrètes les mesures de sécurité déployées sur son haut-parleur intelligent Echo, Google rappelle que la sécurité est un souci constant et que son Assistant est capable d’atténuer les commandes indétectables. Les deux appareils utilisent une technique de reconnaissance vocale pour exécuter certaines commandes uniquement si elles proviennent de la voix d’un utilisateur autorisé.

Apple, de son côté, précise que son HomePod est conçu pour empêcher des commandes telles que l’ouverture de portes. La firme rappelle que les iPhones et iPads doivent être déverrouillés pour que Siri divulgue des informations ou exécute des tâches sensibles.

Prise de contrôle à distance

Cela n’empêche pas certains coups d’éclat célèbres comme une publicité audio en ligne pour Burger King qui commençait par « OK Google », ou comme cet épisode de South Park qui faisait répéter des obscénités aux assistants vocaux des téléspectateurs.

Plus grave, des chercheurs de Princeton et de Zhejiang (Chine) ont pu utiliser des ultrasons, donc indétectables pour les humains, pour s’adressser aux appareils visés. Cette attaque a été possible à près de 10 mètres de distance et même depuis l’extérieur d’un bâtiment, par une simple fenêtre ouverte.

Carlini et ses collègues ont confiance dans les contre-mesures qu’ils vont pouvoir développer « Nous voulions démontrer que c’est possible, et nous espérons que d’autres se demanderont comment combler la brêche ».

D’après Alexa and Siri Can Hear This Hidden Command. You Can’t. par Craig S. Smith

Photo by Mark Tegethoff on Unsplash

Share.

Leave A Reply

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.