Découverte d’attaques contradictoires universelles pour les classificateurs quantiques

Découverte d'attaques contradictoires universelles pour les classificateurs quantiques

(a) Exemples contradictoires universels : l’ajout d’une petite quantité de bruit soigneusement conçu à une certaine image pourrait en faire un exemple contradictoire qui peut tromper différents classificateurs quantiques. (b) Perturbations contradictoires universelles : ajouter le même bruit soigneusement conçu à un ensemble d’images pourrait les faire toutes devenir des exemples contradictoires pour un classificateur quantique donné. Crédit : Science China Press

L’intelligence artificielle a connu un succès spectaculaire au cours de la dernière décennie, le triomphe de la prédiction des structures protéiques étant le dernier jalon. Dans le même temps, l’informatique quantique a également fait des progrès remarquables ces dernières années. Une percée récente dans ce domaine est la démonstration expérimentale de la suprématie quantique. La fusion de l’intelligence artificielle et de la physique quantique donne naissance à un nouveau domaine interdisciplinaire : l’intelligence artificielle quantique.

Ce domaine émergent est en pleine croissance avec des progrès notables réalisés au quotidien. Pourtant, il en est encore largement à ses balbutiements et de nombreux problèmes importants restent inexplorés. Parmi ces problèmes se trouve la vulnérabilité des classificateurs quantiques, qui ouvre une nouvelle frontière de recherche sur l’apprentissage automatique quantique accusatoire.

Dans l’apprentissage automatique classique, la vulnérabilité des classificateurs basés sur des réseaux de neurones profonds aux exemples contradictoires a été activement étudiée depuis 2004. Il a été observé que ces classificateurs pourraient être étonnamment vulnérables : l’ajout d’une perturbation soigneusement conçue mais imperceptible à l’échantillon légitime d’origine peut induire en erreur le classificateur en lui faisant faire des prédictions erronées, même à un niveau de confiance particulièrement élevé.

Semblable à l’apprentissage automatique classique, des études récentes ont révélé l’aspect de vulnérabilité des classificateurs quantiques à partir à la fois d’analyses théoriques et de simulations numériques. Les propriétés exotiques des attaques contradictoires contre les systèmes d’apprentissage automatique quantique ont attiré une attention considérable dans toutes les communautés.

Dans un nouvel article de recherche publié dans le journal basé à Pékin Revue scientifique nationale, des chercheurs de l’IIIS, de l’Université Tsinghua, en Chine, ont étudié pour la première fois les propriétés d’universalité des exemples contradictoires et des perturbations pour les classificateurs quantiques. Comme le montre la figure, les auteurs proposent des réponses affirmatives aux deux questions suivantes : (i) existe-t-il des exemples contradictoires universels qui pourraient tromper différents classificateurs quantiques ? (ii) s’il existe des perturbations contradictoires universelles, qui, ajoutées à différents échantillons d’entrée légitimes, pourraient en faire des exemples contradictoires pour un classificateur quantique donné ?

Les auteurs ont prouvé deux théorèmes intéressants, un pour chaque question. Pour la première question, des travaux antérieurs ont montré que pour un seul classificateur quantique, la force du seuil pour qu’une perturbation délivre une attaque adverse diminue de manière exponentielle à mesure que le nombre de qubits augmente. Le présent article a étendu cette conclusion au cas des classificateurs quantiques multiples et a rigoureusement prouvé que pour un ensemble de k classificateurs quantiques, un logarithmique k l’augmentation de la force de perturbation est suffisante pour assurer un risque contradictoire universel modéré. Cela établit l’existence d’exemples contradictoires universels qui peuvent tromper plusieurs classificateurs quantiques.

Pour la deuxième question, les auteurs ont prouvé que pour une perturbation contradictoire universelle ajoutée à différents échantillons légitimes, le taux d’erreur de classification d’un classificateur quantique donné augmentera à mesure que la dimension de l’espace de données augmente. De plus, le taux d’erreur de classification approchera 100 % lorsque la dimension des échantillons de données est infiniment grande.

En outre, des simulations numériques approfondies ont été réalisées sur des exemples concrets impliquant des classifications d’images réelles et de phases quantiques de la matière pour démontrer comment obtenir à la fois des perturbations antagonistes universelles et des exemples pratiques. Les auteurs ont également proposé des attaques contradictoires sous des scénarios de boîte noire à explorer et la transférabilité des attaques contradictoires sur différents classificateurs.

Les résultats de ce travail révèlent un aspect crucial de l’universalité des attaques contradictoires pour les systèmes d’apprentissage automatique quantique, qui fournirait un guide précieux pour les futures applications pratiques des technologies quantiques à court terme et futures dans l’apprentissage automatique, ou plus largement l’intelligence artificielle.


Une approche pour sécuriser la classification audio contre les attaques contradictoires


Plus d’information:
Weiyuan Gong et al, Exemples contradictoires universels et perturbations pour les classificateurs quantiques, Revue scientifique nationale (2021). DOI : 10.1093/nsr/nwab130

Fourni par Science China Press

Citation: Découverte d’attaques contradictoires universelles pour les classificateurs quantiques (2021, 12 octobre) récupéré le 12 octobre 2021 à partir de https://techxplore.com/news/2021-10-discovery-universal-adversarial-quantum.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.