La recherche fournit de nouvelles informations sur le «phénomène de faux sillage»

Alexa

Crédit : Unsplash/CC0 Domaine public

L’équipe internationale de chercheurs a découvert de nouvelles informations et des découvertes précieuses que les fabricants d’assistants vocaux peuvent utiliser pour améliorer la sécurité de leurs assistants vocaux ainsi que la confidentialité des utilisateurs. L’équipe a enquêté sur les huit assistants vocaux anglais et chinois les plus populaires concernant le « phénomène de faux sillage ».

Les assistants vocaux écoutent généralement activement l’environnement pour que leurs « mots d’éveil » natifs tels que « Alexa », « OK Google » ou leurs noms de marque soient activés. Le phénomène de faux réveil apparaît lorsque l’assistant vocal détecte de faux mots de réveil, appelés « mots flous », provenant, par exemple, de conversations ou d’émissions télévisées en arrière-plan. Ces mots mal reconnus peuvent être utilisés par des attaquants pour activer des assistants vocaux à l’insu de l’utilisateur.

Pour la première fois, l’équipe dirigée par le professeur Wenyuan Xu, le docteur Yanjiao Chen et le professeur Ahmad-Reza Sadeghi a réussi à générer automatiquement et systématiquement ses propres faux mots de réveil au lieu de filtrer du matériel audio. La génération de ces mots flous a commencé avec un mot initial connu tel que « Alexa ». Les chercheurs n’ont eu accès ni au modèle qui reconnaît les mots d’éveil ni au vocabulaire sur lequel repose l’assistant vocal. Dans ce contexte, ils ont également étudié les causes profondes de l’acceptation de mots d’éveil incorrects.

Premièrement, ils ont identifié les caractéristiques qui ont le plus souvent contribué à l’acceptation des mots flous. Les facteurs déterminants se sont concentrés uniquement sur une petite section phonétique du mot. Cependant, les assistants d’investigation vocale ont également pu activer de faux mots qui différaient considérablement des vrais mots d’éveil, les bruits environnants, le volume des mots et le sexe du locuteur n’ayant guère joué de rôle.

À l’aide d’algorithmes génétiques et d’apprentissage automatique, plus de 960 mots flous personnalisés en anglais et en chinois ont pu être générés, ce qui a activé le « détecteur de mots de réveil » des assistants vocaux. D’une part, cela montre la gravité du phénomène de faux sillage, et d’autre part, cela permet de mieux le comprendre.

L’impact du phénomène de faux réveil peut être considérablement réduit en recyclant le détecteur de mots de réveil de l’assistant vocal avec les mots flous générés. Cela permet à l’assistant vocal de distinguer plus précisément les mots de réveil faux et réels. Les fabricants d’assistants vocaux peuvent grandement bénéficier des résultats de cette recherche et recycler les modèles existants pour les rendre plus précis et moins vulnérables aux fausses attaques de réveil, et ainsi augmenter la sécurité de leurs propres produits et améliorer la confidentialité des utilisateurs.


Quand les assistants vocaux écoutent alors qu’ils ne devraient pas


Plus d’information:
Yanjiao Chen et al, FakeWake : Comprendre et atténuer les faux mots de réveil des assistants vocaux. arXiv : 2109.09958v1 [cs.LG], arxiv.org/abs/2109.09958

Fourni par Technische Universitat Darmstadt

Citation: Fake-Waking Voice Assistant : la recherche fournit de nouvelles informations sur le « phénomène de faux sillage » (2021, 27 septembre) récupéré le 27 septembre 2021 à partir de https://techxplore.com/news/2021-09-fake-waking-voice-insights -faux-phénomène.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.