Un nouveau rapport présente des recommandations pour se défendre contre les deepfakes

cerveau ordinateur

Crédit : Pixabay/CC0 Domaine public

Bien que la majeure partie de l’attention du public autour des deepfakes se soit concentrée sur de grandes campagnes de propagande, la nouvelle technologie problématique est beaucoup plus insidieuse, selon un nouveau rapport d’experts en intelligence artificielle (IA) et en politique étrangère de la Northwestern University et de la Brookings Institution.

Dans le nouveau rapport, les auteurs discutent des vidéos, des images et de l’audio deepfake ainsi que des défis de sécurité qui y sont liés. Les chercheurs prédisent que la technologie est sur le point d’être utilisée beaucoup plus largement, y compris dans des opérations militaires et de renseignement ciblées.

En fin de compte, les experts font des recommandations aux responsables de la sécurité et aux décideurs sur la manière de gérer la nouvelle technologie troublante. Parmi leurs recommandations, les auteurs soulignent la nécessité pour les États-Unis et leurs alliés d’élaborer un code de conduite pour l’utilisation des deepfakes par les gouvernements.

Le rapport de recherche, “Deepfakes and international conflict”, a été publié ce mois-ci par Brookings.

“La facilité avec laquelle les deepfakes peuvent être développés pour des individus et des cibles spécifiques, ainsi que leur mouvement rapide – plus récemment grâce à une forme d’IA connue sous le nom de diffusion stable – pointent vers un monde dans lequel tous les acteurs étatiques et non étatiques auront la capacité de déployer des deepfakes dans leurs opérations de sécurité et de renseignement », écrivent les auteurs. “Les responsables de la sécurité et les décideurs devront se préparer en conséquence.”

Les co-auteurs de Northwestern incluent l’expert en IA et en sécurité de renommée mondiale VS Subrahmanian, le professeur Walter P. Murphy d’informatique à la McCormick School of Engineering de Northwestern et le boursier de la faculté Buffett au Buffett Institute of Global Affairs, et Chongyang Gao, un Ph.D. . étudiant dans le laboratoire de Subrahmanian. Les co-auteurs du Brookings Institute incluent Daniel L. Bynam et Chris Meserole.

Les deepfakes nécessitent “peu de difficulté”

Leader du Northwestern Security and AI Lab, Subrahmanian et son étudiant Gao ont précédemment développé TREAD (Terrorism Reduction with Artificial Intelligence Deepfakes), un nouvel algorithme que les chercheurs peuvent utiliser pour générer leurs propres vidéos deepfake. En créant des deepfakes convaincants, les chercheurs peuvent mieux comprendre la technologie dans le contexte de la sécurité.

À l’aide de TREAD, Subrahmanian et son équipe ont créé des exemples de vidéos deepfake du terroriste décédé de l’État islamique Abu Mohammed al-Adnani. Alors que la vidéo qui en résulte ressemble et sonne comme al-Adnani – avec des expressions faciales et un son très réalistes – il prononce en fait des paroles du président syrien Bashar al-Assad.

Les chercheurs ont créé la vidéo réaliste en quelques heures. Le processus était si simple que Subrahmanian et ses coauteurs ont déclaré que les militaires et les agences de sécurité devraient simplement supposer que les rivaux sont capables de générer des vidéos deepfake de n’importe quel officiel ou dirigeant en quelques minutes.

“Toute personne ayant une formation raisonnable en apprentissage automatique peut, avec un travail systématique et le bon matériel, générer des vidéos deepfake à grande échelle en construisant des modèles similaires à TREAD”, écrivent les auteurs. “Les agences de renseignement de pratiquement n’importe quel pays, y compris certainement des adversaires américains, peuvent le faire sans difficulté.”

Éviter les “jeux du chat et de la souris”

Les auteurs pensent que les acteurs étatiques et non étatiques tireront parti des deepfakes pour renforcer les efforts de désinformation en cours. Les deepfakes pourraient contribuer à alimenter les conflits en légitimant la guerre, en semant la confusion, en sapant le soutien populaire, en polarisant les sociétés, en discréditant les dirigeants, etc. À court terme, les experts en sécurité et en renseignement peuvent contrer les deepfakes en concevant et en formant des algorithmes pour identifier les vidéos, les images et le son potentiellement faux. Cependant, cette approche a peu de chances de rester efficace à long terme.

“Toute personne ayant une formation raisonnable en apprentissage automatique peut générer des vidéos deepfake à grande échelle. Les agences de renseignement de pratiquement tous les pays peuvent le faire sans difficulté.”

“Le résultat sera un jeu du chat et de la souris similaire à celui observé avec les logiciels malveillants : lorsque les entreprises de cybersécurité découvrent un nouveau type de logiciel malveillant et développent des signatures pour le détecter, les développeurs de logiciels malveillants font des ‘ajustements’ pour échapper au détecteur”, ont déclaré les auteurs. . “Le cycle détection-évasion-détection-évasion se déroule au fil du temps… Finalement, nous pouvons atteindre un point final où la détection devient impossible ou trop gourmande en calculs pour être effectuée rapidement et à grande échelle.”

Pour les stratégies à long terme, les auteurs du rapport font plusieurs recommandations :

  • Éduquer le grand public pour accroître la littératie numérique et le raisonnement critique
  • Développer des systèmes capables de suivre le mouvement des actifs numériques en documentant chaque personne ou organisation qui gère l’actif
  • Encouragez les journalistes et les analystes du renseignement à ralentir et à vérifier les informations avant de les inclure dans des articles publiés. “De même, les journalistes pourraient imiter les produits de renseignement qui traitent des” niveaux de confiance “en ce qui concerne les jugements.”
  • Utiliser des informations provenant de sources distinctes, telles que des codes de vérification, pour confirmer la légitimité des actifs numériques

Par-dessus tout, les auteurs soutiennent que le gouvernement devrait adopter des politiques qui offrent de solides mécanismes de surveillance et de responsabilité pour régir la génération et la distribution de contenu deepfake. Si les États-Unis ou leurs alliés veulent “combattre le feu par le feu” en créant leurs propres deepfakes, des politiques doivent d’abord être convenues et mises en place. Les auteurs disent que cela pourrait inclure la mise en place d’un “Processus actions Deepfakes”, calqué sur des processus similaires pour la cybersécurité.

“La décision de générer et d’utiliser des deepfakes ne doit pas être prise à la légère et non sans un examen attentif des compromis”, écrivent les auteurs. “L’utilisation de deepfakes, en particulier conçus pour attaquer des cibles de grande valeur dans des situations de conflit, affectera un large éventail de bureaux et d’agences gouvernementales. Chaque partie prenante devrait avoir la possibilité d’apporter sa contribution, selon les besoins et le cas échéant. basé sur un processus délibératif est le meilleur moyen de garantir que les gouvernements démocratiques utilisent les deepfakes de manière responsable.”

Fourni par l’Université Northwestern

Citation: Un nouveau rapport présente des recommandations pour se défendre contre les deepfakes (17 janvier 2023) récupéré le 17 janvier 2023 sur https://techxplore.com/news/2023-01-outlines-defending-deepfakes.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire