Le “Security Copilot” Sics ChatGPT de Microsoft sur les failles de sécurité

Jakkal dit que même si les outils de sécurité de l’apprentissage automatique ont été efficaces dans des domaines spécifiques, comme la surveillance des e-mails ou de l’activité sur des appareils individuels, connus sous le nom de sécurité des points de terminaison, Security Copilot rassemble tous ces flux distincts et extrapole une vue d’ensemble. “Avec Security Copilot, vous pouvez saisir ce que d’autres ont pu manquer car il forme ce tissu conjonctif”, dit-elle.

Security Copilot est largement alimenté par ChatGPT-4 d’OpenAI, mais Microsoft souligne qu’il intègre également un modèle propriétaire spécifique à la sécurité de Microsoft. Le système suit tout ce qui est fait pendant une enquête. L’enregistrement qui en résulte peut être audité et les documents qu’il produit pour la distribution peuvent tous être modifiés pour plus de précision et de clarté. Si quelque chose que Copilot suggère au cours d’une enquête est erroné ou non pertinent, les utilisateurs peuvent cliquer sur le bouton “Hors cible” pour former davantage le système.

Le système offre des contrôles d’accès afin que certains collègues puissent être partagés sur des projets particuliers et pas sur d’autres, ce qui est particulièrement important pour enquêter sur d’éventuelles menaces internes. Et Security Copilot permet une sorte de backstop pour une surveillance 24h/24 et 7j/7. De cette façon, même si quelqu’un avec un ensemble de compétences spécifiques ne travaille pas sur un quart de travail donné ou un jour donné, le système peut offrir une analyse de base et des suggestions pour aider à combler les lacunes. Par exemple, si une équipe souhaite analyser rapidement un script ou un logiciel binaire potentiellement malveillant, Security Copilot peut démarrer ce travail et contextualiser le comportement du logiciel et ses objectifs.

Microsoft souligne que les données des clients ne sont pas partagées avec d’autres et ne sont “pas utilisées pour former ou enrichir les modèles d’IA de base”. Cependant, Microsoft est fier d’utiliser « 65 000 milliards de signaux quotidiens » de sa vaste base de clients dans le monde entier pour informer ses produits de détection des menaces et de défense. Mais Jakal et son collègue, Chang Kawaguchi, vice-président de Microsoft et architecte de la sécurité de l’IA, soulignent que Security Copilot est soumis aux mêmes restrictions et réglementations en matière de partage de données que tous les produits de sécurité auxquels il s’intègre. Ainsi, si vous utilisez déjà Microsoft Sentinel ou Defender, Security Copilot doit respecter les politiques de confidentialité de ces services.

Kawaguchi dit que Security Copilot a été conçu pour être aussi flexible et ouvert que possible, et que les réactions des clients éclaireront les futurs ajouts et améliorations de fonctionnalités. L’utilité du système se résumera en fin de compte à la façon dont il peut être perspicace et précis sur le réseau de chaque client et les menaces auxquelles il est confronté. Mais Kawaguchi dit que le plus important est que les défenseurs commencent à bénéficier de l’IA générative le plus rapidement possible.

Comme il le dit : “Nous devons équiper les défenseurs d’IA étant donné que les attaquants vont l’utiliser quoi que nous fassions.”

Laisser un commentaire