Les professionnels de l’informatique et de la sécurité sont « prudemment optimistes » à l’égard de l’IA

La suite C est plus familiarisée avec les technologies d'IA que son personnel informatique et de sécurité, selon un rapport de la Cloud Security Alliance commandé par Google Cloud. Le rapport, publié le 3 avril, examine si les professionnels de l'informatique et de la sécurité craignent que l'IA remplace leur emploi, les avantages et les défis de l'augmentation de l'IA générative et bien plus encore.

Parmi les professionnels de l’informatique et de la sécurité interrogés, 63 % pensent que l’IA améliorera la sécurité au sein de leur organisation. 24 % d'entre eux sont neutres quant à l'impact de l'IA sur les mesures de sécurité, tandis que 12 % ne pensent pas que l'IA améliorera la sécurité au sein de leur organisation. Parmi les personnes interrogées, seules quelques-unes (12 %) prévoient que l’IA remplacera leur emploi.

L'enquête utilisée pour créer le rapport a été menée à l'échelle internationale, avec les réponses de 2 486 professionnels de l'informatique et de la sécurité et des dirigeants d'organisations des Amériques, de l'APAC et de l'EMEA en novembre 2023.

Les professionnels de la cybersécurité qui ne sont pas dirigeants sont moins clairs que les cadres supérieurs sur les cas d’utilisation possibles de l’IA dans la cybersécurité, avec seulement 14 % du personnel (contre 51 % des cadres supérieurs) se disant « très clairs ».

« Le décalage entre les dirigeants et le personnel dans la compréhension et la mise en œuvre de l'IA met en évidence la nécessité d'une approche stratégique et unifiée pour intégrer avec succès cette technologie », a déclaré Caleb Sima, président de l'IA Safety Initiative de Cloud Security Alliance, dans un communiqué de presse.

Certaines questions du rapport précisaient que les réponses devaient concerner l’IA générative, tandis que d’autres questions utilisaient le terme « IA » au sens large.

Le manque de connaissances sur l’IA en matière de sécurité

Les professionnels de niveau C subissent des pressions venant d’en haut qui les ont peut-être amenés à être plus conscients des cas d’utilisation de l’IA que les professionnels de la sécurité.

De nombreux cadres supérieurs (82 %) déclarent que leurs dirigeants et leurs conseils d’administration font pression en faveur de l’adoption de l’IA. Cependant, le rapport indique que cette approche pourrait entraîner des problèmes de mise en œuvre à long terme.

“Cela peut mettre en évidence un manque d'appréciation de la difficulté et des connaissances nécessaires pour adopter et mettre en œuvre une technologie aussi unique et disruptive (par exemple, l'ingénierie rapide)”, a écrit l'auteur principal Hillary Baron, directrice technique principale de la recherche et de l'analyse à la Cloud Security Alliance. , et une équipe de contributeurs.

Il existe plusieurs raisons pour lesquelles ce manque de connaissances peut exister :

  • Les professionnels de la cybersécurité ne sont peut-être pas aussi informés de la manière dont l’IA peut affecter la stratégie globale.
  • Les dirigeants sous-estiment peut-être à quel point il pourrait être difficile de mettre en œuvre des stratégies d’IA dans le cadre des pratiques de cybersécurité existantes.

Les auteurs du rapport notent que certaines données (Figure A) indique que les personnes interrogées sont aussi familiarisées avec l'IA générative et les grands modèles de langage qu'avec des termes plus anciens tels que le traitement du langage naturel et l'apprentissage profond.

Figure A

Infographie montrant les réponses à l'instruction « Évaluez votre familiarité avec les technologies ou systèmes d'IA suivants ».
Réponses à l'instruction « Évaluez votre familiarité avec les technologies ou systèmes d'IA suivants ». Image : Alliance pour la sécurité du cloud

Les auteurs du rapport notent que la prédominance de la familiarité avec des termes plus anciens tels que traitement du langage naturel et apprentissage profond pourrait indiquer un amalgame entre l'IA générative et des outils populaires comme ChatGPT.

“C'est la différence entre être familier avec les outils GenAI grand public et le niveau professionnel/entreprise qui est plus important en termes d'adoption et de mise en œuvre”, a déclaré Baron dans un e-mail à Testeur Joe. “C'est quelque chose que nous constatons de manière générale chez les professionnels de la sécurité à tous les niveaux.”

L’IA va-t-elle remplacer les métiers de la cybersécurité ?

Un petit groupe (12 %) de professionnels de la sécurité pensent que l’IA remplacera complètement leur emploi au cours des cinq prochaines années. D'autres sont plus optimistes :

  • 30 % pensent que l’IA les aidera à améliorer certaines de leurs compétences.
  • 28 % prévoient que l’IA les soutiendra globalement dans leur rôle actuel.
  • 24 % pensent que l’IA remplacera une grande partie de leur rôle.
  • 5 % s’attendent à ce que l’IA n’ait aucun impact sur leur rôle.

Les objectifs des organisations en matière d'IA le reflètent, puisque 36 % d'entre elles recherchent le résultat d'une amélioration des compétences et des connaissances des équipes de sécurité par l'IA.

Le rapport souligne une divergence intéressante : même si l’amélioration des compétences et des connaissances est un résultat hautement souhaité, le talent arrive en bas de la liste des défis. Cela pourrait signifier que les tâches immédiates, telles que l'identification des menaces, sont prioritaires dans les opérations quotidiennes, tandis que le talent constitue une préoccupation à plus long terme.

Avantages et défis de l’IA en cybersécurité

Le groupe était divisé sur la question de savoir si l’IA serait plus bénéfique pour les défenseurs ou les attaquants :

  • 34 % estiment que l’IA est plus bénéfique pour les équipes de sécurité.
  • 31 % le considèrent comme tout aussi avantageux pour les défenseurs que pour les attaquants.
  • 25 % le considèrent comme plus avantageux pour les attaquants.

Les professionnels préoccupés par l’utilisation de l’IA en matière de sécurité citent les raisons suivantes :

  • Mauvaise qualité des données entraînant des biais involontaires et d'autres problèmes (38 %).
  • Manque de transparence (36%).
  • Lacunes en matière de compétences/expertise en matière de gestion de systèmes d’IA complexes (33 %).
  • Empoisonnement des données (28%).

Les hallucinations, la confidentialité, la fuite ou la perte de données, l’exactitude et l’utilisation abusive étaient d’autres options qui pourraient préoccuper les gens ; toutes ces options ont reçu moins de 25 % des votes dans l'enquête, où les répondants étaient invités à sélectionner leurs trois principales préoccupations.

VOIR : Le Centre national de cybersécurité du Royaume-Uni a découvert que l'IA générative pouvait améliorer l'arsenal des attaquants. (TechRépublique)

Plus de la moitié (51 %) des personnes interrogées ont répondu « oui » à la question de savoir si elles étaient préoccupées par les risques potentiels d'une dépendance excessive à l'égard de l'IA pour la cybersécurité ; 28 % supplémentaires étaient neutres.

Utilisations prévues de l'IA générative en cybersécurité

Parmi les organisations qui envisagent d’utiliser l’IA générative pour la cybersécurité, il existe un très large éventail d’utilisations prévues (Figure B). Les utilisations courantes incluent :

  • Création de règles.
  • Simulation d'attaque.
  • Surveillance des violations de conformité.
  • Détection de réseau.
  • Réduire les faux positifs.

Figure B

Infographie montrant les réponses à la question Comment votre organisation envisage-t-elle d'utiliser l'IA générative pour la cybersécurité ?  (Sélectionnez les 3 principaux cas d'utilisation).
Réponses à la question Comment votre organisation envisage-t-elle d'utiliser l'IA générative pour la cybersécurité ? (Sélectionnez les 3 principaux cas d'utilisation). Image : Alliance pour la sécurité du cloud

Comment les organisations structurent leurs équipes à l’ère de l’IA

Parmi les personnes interrogées, 74 % déclarent que leur organisation prévoit de créer de nouvelles équipes pour superviser l'utilisation sécurisée de l'IA au cours des cinq prochaines années. La façon dont ces équipes sont structurées peut varier.

Aujourd’hui, certaines organisations travaillant sur le déploiement de l’IA le confient à leur équipe de sécurité (24 %). D'autres organisations confient la responsabilité principale du déploiement de l'IA au service informatique (21 %), à l'équipe de science des données/analyse (16 %), à une équipe dédiée IA/ML (13 %) ou à la haute direction/leadership (9 %). Dans des cas plus rares, DevOps (8 %), des équipes interfonctionnelles (6 %) ou une équipe qui n'entrait dans aucune des catégories (répertoriées comme « autres » à 1 %) ont pris la responsabilité.

VOIR : Kit de recrutement : ingénieur rapide (Testeur Joe Premium)

“Il est évident que l'IA dans la cybersécurité ne transforme pas seulement les rôles existants, mais ouvre également la voie à de nouveaux postes spécialisés”, ont écrit l'auteur principal Hillary Baron et l'équipe de contributeurs.

Quels types de postes ? La gouvernance de l'IA générative est un sous-domaine en pleine croissance, a déclaré Baron à Testeur Joe, tout comme la formation et le perfectionnement axés sur l'IA.

“En général, nous commençons également à voir des offres d'emploi qui incluent des rôles plus spécifiques à l'IA, comme des ingénieurs d'invite, des architectes de sécurité IA et des ingénieurs en sécurité”, a déclaré Baron.

rewrite this content and keep HTML tags

La suite C est plus familiarisée avec les technologies d'IA que son personnel informatique et de sécurité, selon un rapport de la Cloud Security Alliance commandé par Google Cloud. Le rapport, publié le 3 avril, examine si les professionnels de l'informatique et de la sécurité craignent que l'IA remplace leur emploi, les avantages et les défis de l'augmentation de l'IA générative et bien plus encore.

Parmi les professionnels de l’informatique et de la sécurité interrogés, 63 % pensent que l’IA améliorera la sécurité au sein de leur organisation. 24 % d'entre eux sont neutres quant à l'impact de l'IA sur les mesures de sécurité, tandis que 12 % ne pensent pas que l'IA améliorera la sécurité au sein de leur organisation. Parmi les personnes interrogées, seules quelques-unes (12 %) prévoient que l’IA remplacera leur emploi.

L'enquête utilisée pour créer le rapport a été menée à l'échelle internationale, avec les réponses de 2 486 professionnels de l'informatique et de la sécurité et des dirigeants d'organisations des Amériques, de l'APAC et de l'EMEA en novembre 2023.

Les professionnels de la cybersécurité qui ne sont pas dirigeants sont moins clairs que les cadres supérieurs sur les cas d’utilisation possibles de l’IA dans la cybersécurité, avec seulement 14 % du personnel (contre 51 % des cadres supérieurs) se disant « très clairs ».

« Le décalage entre les dirigeants et le personnel dans la compréhension et la mise en œuvre de l'IA met en évidence la nécessité d'une approche stratégique et unifiée pour intégrer avec succès cette technologie », a déclaré Caleb Sima, président de l'IA Safety Initiative de Cloud Security Alliance, dans un communiqué de presse.

Certaines questions du rapport précisaient que les réponses devaient concerner l’IA générative, tandis que d’autres questions utilisaient le terme « IA » au sens large.

Le manque de connaissances sur l’IA en matière de sécurité

Les professionnels de niveau C subissent des pressions venant d’en haut qui les ont peut-être amenés à être plus conscients des cas d’utilisation de l’IA que les professionnels de la sécurité.

De nombreux cadres supérieurs (82 %) déclarent que leurs dirigeants et leurs conseils d’administration font pression en faveur de l’adoption de l’IA. Cependant, le rapport indique que cette approche pourrait entraîner des problèmes de mise en œuvre à long terme.

“Cela peut mettre en évidence un manque d'appréciation de la difficulté et des connaissances nécessaires pour adopter et mettre en œuvre une technologie aussi unique et disruptive (par exemple, l'ingénierie rapide)”, a écrit l'auteur principal Hillary Baron, directrice technique principale de la recherche et de l'analyse à la Cloud Security Alliance. , et une équipe de contributeurs.

Il existe plusieurs raisons pour lesquelles ce manque de connaissances peut exister :

  • Les professionnels de la cybersécurité ne sont peut-être pas aussi informés de la manière dont l’IA peut affecter la stratégie globale.
  • Les dirigeants sous-estiment peut-être à quel point il pourrait être difficile de mettre en œuvre des stratégies d’IA dans le cadre des pratiques de cybersécurité existantes.

Les auteurs du rapport notent que certaines données (Figure A) indique que les personnes interrogées sont aussi familiarisées avec l'IA générative et les grands modèles de langage qu'avec des termes plus anciens tels que le traitement du langage naturel et l'apprentissage profond.

Figure A

Infographie montrant les réponses à l'instruction « Évaluez votre familiarité avec les technologies ou systèmes d'IA suivants ».
Réponses à l'instruction « Évaluez votre familiarité avec les technologies ou systèmes d'IA suivants ». Image : Alliance pour la sécurité du cloud

Les auteurs du rapport notent que la prédominance de la familiarité avec des termes plus anciens tels que traitement du langage naturel et apprentissage profond pourrait indiquer un amalgame entre l'IA générative et des outils populaires comme ChatGPT.

“C'est la différence entre être familier avec les outils GenAI grand public et le niveau professionnel/entreprise qui est plus important en termes d'adoption et de mise en œuvre”, a déclaré Baron dans un e-mail à Testeur Joe. “C'est quelque chose que nous constatons de manière générale chez les professionnels de la sécurité à tous les niveaux.”

L’IA va-t-elle remplacer les métiers de la cybersécurité ?

Un petit groupe (12 %) de professionnels de la sécurité pensent que l’IA remplacera complètement leur emploi au cours des cinq prochaines années. D'autres sont plus optimistes :

  • 30 % pensent que l’IA les aidera à améliorer certaines de leurs compétences.
  • 28 % prévoient que l’IA les soutiendra globalement dans leur rôle actuel.
  • 24 % pensent que l’IA remplacera une grande partie de leur rôle.
  • 5 % s’attendent à ce que l’IA n’ait aucun impact sur leur rôle.

Les objectifs des organisations en matière d'IA le reflètent, puisque 36 % d'entre elles recherchent le résultat d'une amélioration des compétences et des connaissances des équipes de sécurité par l'IA.

Le rapport souligne une divergence intéressante : même si l’amélioration des compétences et des connaissances est un résultat hautement souhaité, le talent arrive en bas de la liste des défis. Cela pourrait signifier que les tâches immédiates, telles que l'identification des menaces, sont prioritaires dans les opérations quotidiennes, tandis que le talent constitue une préoccupation à plus long terme.

Avantages et défis de l’IA en cybersécurité

Le groupe était divisé sur la question de savoir si l’IA serait plus bénéfique pour les défenseurs ou les attaquants :

  • 34 % estiment que l’IA est plus bénéfique pour les équipes de sécurité.
  • 31 % le considèrent comme tout aussi avantageux pour les défenseurs que pour les attaquants.
  • 25 % le considèrent comme plus avantageux pour les attaquants.

Les professionnels préoccupés par l’utilisation de l’IA en matière de sécurité citent les raisons suivantes :

  • Mauvaise qualité des données entraînant des biais involontaires et d'autres problèmes (38 %).
  • Manque de transparence (36%).
  • Lacunes en matière de compétences/expertise en matière de gestion de systèmes d’IA complexes (33 %).
  • Empoisonnement des données (28%).

Les hallucinations, la confidentialité, la fuite ou la perte de données, l’exactitude et l’utilisation abusive étaient d’autres options qui pourraient préoccuper les gens ; toutes ces options ont reçu moins de 25 % des votes dans l'enquête, où les répondants étaient invités à sélectionner leurs trois principales préoccupations.

VOIR : Le Centre national de cybersécurité du Royaume-Uni a découvert que l'IA générative pouvait améliorer l'arsenal des attaquants. (TechRépublique)

Plus de la moitié (51 %) des personnes interrogées ont répondu « oui » à la question de savoir si elles étaient préoccupées par les risques potentiels d'une dépendance excessive à l'égard de l'IA pour la cybersécurité ; 28 % supplémentaires étaient neutres.

Utilisations prévues de l'IA générative en cybersécurité

Parmi les organisations qui envisagent d’utiliser l’IA générative pour la cybersécurité, il existe un très large éventail d’utilisations prévues (Figure B). Les utilisations courantes incluent :

  • Création de règles.
  • Simulation d'attaque.
  • Surveillance des violations de conformité.
  • Détection de réseau.
  • Réduire les faux positifs.

Figure B

Infographie montrant les réponses à la question Comment votre organisation envisage-t-elle d'utiliser l'IA générative pour la cybersécurité ?  (Sélectionnez les 3 principaux cas d'utilisation).
Réponses à la question Comment votre organisation envisage-t-elle d'utiliser l'IA générative pour la cybersécurité ? (Sélectionnez les 3 principaux cas d'utilisation). Image : Alliance pour la sécurité du cloud

Comment les organisations structurent leurs équipes à l’ère de l’IA

Parmi les personnes interrogées, 74 % déclarent que leur organisation prévoit de créer de nouvelles équipes pour superviser l'utilisation sécurisée de l'IA au cours des cinq prochaines années. La façon dont ces équipes sont structurées peut varier.

Aujourd’hui, certaines organisations travaillant sur le déploiement de l’IA le confient à leur équipe de sécurité (24 %). D'autres organisations confient la responsabilité principale du déploiement de l'IA au service informatique (21 %), à l'équipe de science des données/analyse (16 %), à une équipe dédiée IA/ML (13 %) ou à la haute direction/leadership (9 %). Dans des cas plus rares, DevOps (8 %), des équipes interfonctionnelles (6 %) ou une équipe qui n'entrait dans aucune des catégories (répertoriées comme « autres » à 1 %) ont pris la responsabilité.

VOIR : Kit de recrutement : ingénieur rapide (Testeur Joe Premium)

“Il est évident que l'IA dans la cybersécurité ne transforme pas seulement les rôles existants, mais ouvre également la voie à de nouveaux postes spécialisés”, ont écrit l'auteur principal Hillary Baron et l'équipe de contributeurs.

Quels types de postes ? La gouvernance de l'IA générative est un sous-domaine en pleine croissance, a déclaré Baron à Testeur Joe, tout comme la formation et le perfectionnement axés sur l'IA.

“En général, nous commençons également à voir des offres d'emploi qui incluent des rôles plus spécifiques à l'IA, comme des ingénieurs d'invite, des architectes de sécurité IA et des ingénieurs en sécurité”, a déclaré Baron.

Laisser un commentaire