Une nouvelle IA peut bloquer les microphones indésirables

annonces en ligne

Crédit : domaine public Unsplash/CC0

Avez-vous déjà remarqué des publicités en ligne qui vous suivent et qui sont étrangement proches de quelque chose dont vous avez récemment parlé avec vos amis et votre famille ? Les microphones sont intégrés dans presque tout aujourd’hui, de nos téléphones, montres et téléviseurs aux assistants vocaux, et ils sont toujours à votre écoute. Les ordinateurs utilisent constamment les réseaux de neurones et l’IA pour traiter votre discours, afin d’obtenir des informations sur vous. Si vous vouliez empêcher que cela se produise, comment pourriez-vous vous y prendre ?

À l’époque, comme le montre l’émission télévisée à succès “The Americans”, vous jouiez de la musique avec le volume à fond ou allumiez l’eau dans la salle de bain. Et si vous ne vouliez pas constamment crier sur la musique pour communiquer ? Les chercheurs de Columbia Engineering ont développé un nouveau système qui génère des sons silencieux que vous pouvez jouer dans n’importe quelle pièce, dans n’importe quelle situation, pour empêcher les appareils intelligents de vous espionner. Et il est facile à mettre en œuvre sur du matériel comme les ordinateurs et les smartphones, ce qui permet aux utilisateurs de protéger la confidentialité de leur voix.

“Un défi technique clé pour y parvenir était de faire en sorte que tout fonctionne assez rapidement”, a déclaré Carl Vondrick, professeur adjoint d’informatique. “Notre algorithme, qui parvient à empêcher un microphone malveillant d’entendre correctement vos paroles 80 % du temps, est le plus rapide et le plus précis de notre banc d’essai. Il fonctionne même lorsque nous ne savons rien sur le microphone malveillant, comme l’emplacement de celui-ci, ou même le logiciel informatique qui s’y exécute. Il camoufle essentiellement la voix d’une personne par voie hertzienne, la cachant de ces systèmes d’écoute, et sans gêner la conversation entre les personnes dans la pièce.

Garder une longueur d’avance sur les conversations

Alors que les résultats de l’équipe dans la corruption des systèmes de reconnaissance automatique de la parole sont théoriquement connus pour être possibles dans l’IA depuis un certain temps, les atteindre assez rapidement pour être utilisés dans des applications pratiques reste un goulot d’étranglement majeur. Le problème est qu’un son qui interrompt la parole d’une personne maintenant – à ce moment précis – n’est pas un son qui interrompra la parole une seconde plus tard. Au fur et à mesure que les gens parlent, leur voix change constamment car ils disent des mots différents et parlent très vite. Ces altérations rendent presque impossible pour une machine de suivre le rythme rapide de la parole d’une personne.

“Notre algorithme est capable de suivre le rythme en prédisant les caractéristiques de ce qu’une personne dira ensuite, en lui donnant suffisamment de temps pour générer le bon chuchotement à faire”, a déclaré Mia Chiquier, auteur principal de l’étude et titulaire d’un doctorat. étudiant dans le laboratoire de Vondrick. “Jusqu’à présent, notre méthode fonctionne pour la majorité du vocabulaire de la langue anglaise, et nous prévoyons d’appliquer l’algorithme à d’autres langues, ainsi que de rendre éventuellement le son du chuchotement complètement imperceptible.”

Lancer des “attaques prédictives”

Les chercheurs devaient concevoir un algorithme capable de briser les réseaux de neurones en temps réel, qui pourrait être généré en continu au fur et à mesure que la parole est prononcée et applicable à la majorité du vocabulaire d’une langue. Bien que des travaux antérieurs aient réussi à répondre à au moins une de ces trois exigences, aucun n’a atteint les trois. Le nouvel algorithme de Chiquier utilise ce qu’elle appelle des “attaques prédictives”, un signal qui peut perturber n’importe quel mot que les modèles de reconnaissance automatique de la parole sont entraînés à transcrire. De plus, lorsque les sons d’attaque sont diffusés en direct, ils doivent être suffisamment forts pour perturber tout microphone “d’écoute” malveillant qui pourrait être éloigné. Le son d’attaque doit porter la même distance que la voix.

L’approche des chercheurs atteint des performances en temps réel en prévoyant une attaque sur l’avenir du signal, ou du mot, conditionnée à deux secondes de parole d’entrée. L’équipe a optimisé l’attaque afin qu’elle ait un volume similaire au bruit de fond normal, permettant aux personnes présentes dans une pièce de converser naturellement et sans être surveillées avec succès par un système de reconnaissance vocale automatique. Le groupe a démontré avec succès que leur méthode fonctionne dans des pièces du monde réel avec un bruit ambiant naturel et des géométries de scène complexes.

IA éthique

“Pour beaucoup d’entre nous dans la communauté de la recherche, les préoccupations éthiques de la technologie de l’IA sont une question essentielle, mais cela semble appartenir à un processus de pensée distinct. C’est comme si nous étions si heureux d’avoir finalement fabriqué une voiture de conduite, mais avons oublié de concevoir un volant et un frein », explique Jianbo Shi, professeur d’informatique et de sciences de l’information à l’Université de Pennsylvanie et chercheur de premier plan dans le domaine de l’apprentissage automatique. “En tant que communauté, nous devons réfléchir” consciemment “à l’impact humain et sociétal de la technologie d’IA que nous développons dès la première phase de conception de la recherche. L’étude de Mia Chiquier et Carl Vondrick pose la question” Comment utiliser l’IA pour nous protéger contre les attaques non intentionnelles. Utilisations de l’IA ?’ Leur travail fait réfléchir nombre d’entre nous dans la direction suivante : ne nous demandons pas ce que l’IA éthique peut faire pour nous, mais ce que nous pouvons faire pour l’IA éthique ? Une fois que nous croyons en cette direction, la recherche sur l’IA éthique est tout aussi amusante et créative. »

Chiquier présentera son article le 25 avril 2022 à la Conférence internationale sur les représentations de l’apprentissage.


L’apprentissage automatique améliore la reconnaissance vocale humaine


Plus d’information:
Mia Chiquier et al, Camouflage vocal neuronal en temps réel (2022). Disponible en PDF sur arXiv:2112.07076 [cs.SD] arxiv.org/abs/2112.07076

Fourni par l’École d’ingénierie et de sciences appliquées de l’Université de Columbia

Citation: Empêcher « eux » de vous espionner : une nouvelle IA peut bloquer les microphones malveillants (18 avril 2022) récupéré le 18 avril 2022 sur https://techxplore.com/news/2022-04-spying-ai-block-rogue-microphones .html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.