Le service d'IA de Bedrock acquiert une base contextuelle

Amazon fait partie des géants technologiques qui ont accepté l’année dernière une série de recommandations de la Maison Blanche concernant l’utilisation de l’IA générative. Les considérations relatives à la confidentialité abordées dans ces recommandations continuent de se déployer, la dernière en date étant incluse dans les annonces faites lors du sommet AWS à New York le 9 juillet. En particulier, la mise à la terre contextuelle de Guardrails for Amazon Bedrock fournit des filtres de contenu personnalisables pour les organisations déployant leur propre IA générative.

Diya Wynn, responsable de l'IA responsable d'AWS, s'est entretenue avec Testeur Joe lors d'un pré-briefing virtuel sur les nouvelles annonces et sur la manière dont les entreprises équilibrent les vastes connaissances de l'IA générative avec la confidentialité et l'inclusion.

Annonces du sommet AWS NY : modifications des garde-fous pour Amazon Bedrock

Guardrails for Amazon Bedrock, le filtre de sécurité pour les applications d'IA génératives hébergées sur AWS, présente de nouvelles améliorations :

  • Les utilisateurs de Claude 3 Haiku d'Anthropic en avant-première peuvent désormais peaufiner le modèle avec Bedrock à partir du 10 juillet.
  • Des contrôles de mise à la terre contextuelle ont été ajoutés à Guardrails pour Amazon Bedrock, qui détectent les hallucinations dans les réponses du modèle pour les applications de génération et de résumé augmentées par récupération.

En outre, Guardrails s’étend à l’API indépendante ApplyGuardrail, avec laquelle les entreprises Amazon et les clients AWS peuvent appliquer des mesures de protection aux applications d’IA génératives même si ces modèles sont hébergés en dehors de l’infrastructure AWS. Cela signifie que les créateurs d’applications peuvent utiliser des filtres de toxicité, des filtres de contenu et marquer les informations sensibles qu’ils souhaitent exclure de l’application. Wynn a déclaré que jusqu’à 85 % des contenus nuisibles peuvent être réduits grâce à des garde-fous personnalisés.

La mise à la terre contextuelle et l'API ApplyGuardrail seront disponibles le 10 juillet dans certaines régions AWS.

Les garde-fous pour Amazon Bedrock permettent aux clients de personnaliser le contenu qu'un modèle d'IA générative adoptera ou évitera. Image : AWS

La mise à la terre contextuelle de Guardrails for Amazon Bedrock fait partie de la stratégie plus large d'IA responsable d'AWS

L'ancrage contextuel est lié à la stratégie globale d'AWS en matière d'IA responsable en termes d'efforts continus d'AWS pour « faire progresser la science ainsi que continuer à innover et à fournir à nos clients des services qu'ils peuvent exploiter pour développer leurs services et développer des produits d'IA », a déclaré Wynn.

« L’un des domaines qui nous préoccupent le plus souvent, ou dont nous entendons parler, chez les clients, concerne les hallucinations », a-t-elle déclaré.

L’ancrage contextuel – et les garde-fous en général – peuvent contribuer à atténuer ce problème. Les garde-fous avec ancrage contextuel peuvent réduire jusqu’à 75 % des hallucinations observées auparavant dans l’IA générative, a déclaré Wynn.

La façon dont les clients perçoivent l’IA générative a changé à mesure que l’IA générative est devenue plus courante au cours de l’année dernière.

« Lorsque nous avons commencé à travailler avec nos clients, ceux-ci ne venaient pas forcément vers nous, n'est-ce pas ? », a déclaré M. Wynn. « Nous examinions des cas d'utilisation spécifiques et aidions à soutenir le développement, mais le changement au cours de la dernière année a finalement été une plus grande prise de conscience [of generative AI] et donc les entreprises demandent et souhaitent mieux comprendre les façons dont nous construisons et les choses qu'elles peuvent faire pour garantir la sécurité de leurs systèmes. »

Cela signifie « aborder les questions de partialité » ainsi que réduire les problèmes de sécurité ou les hallucinations de l’IA, a-t-elle déclaré.

Ajouts à l'assistant d'entreprise Amazon Q et autres annonces du sommet AWS NY

Lors du sommet AWS de New York, AWS a annoncé une série de nouvelles fonctionnalités et de modifications apportées à ses produits. Parmi les points forts, citons :

  • Une capacité de personnalisation du développeur dans l'assistant d'IA d'entreprise Amazon Q pour sécuriser l'accès à la base de code d'une organisation.
  • L'ajout d'Amazon Q à SageMaker Studio.
  • La disponibilité générale d'Amazon Q Apps, un outil permettant de déployer des applications génératives basées sur l'IA et basées sur les données de votre entreprise.
  • Accès à Scale AI sur Amazon Bedrock pour personnaliser, configurer et affiner les modèles d'IA.
  • Recherche vectorielle pour Amazon MemoryDB, accélérant la vitesse de recherche vectorielle dans les bases de données vectorielles sur AWS.

VOIR : Amazon a récemment annoncé des instances cloud alimentées par Graviton4, qui peuvent prendre en charge les puces d'IA Trainium et Inferentia d'AWS.

AWS atteint son objectif de formation au cloud computing plus tôt que prévu

Lors de son Summit NY, AWS a annoncé avoir donné suite à son initiative visant à former 29 millions de personnes dans le monde aux compétences en matière de cloud computing d'ici 2025, dépassant ainsi ce chiffre déjà atteint. Dans 200 pays et territoires, 31 millions de personnes ont suivi des cours de formation AWS liés au cloud.

Formation et rôles de l'IA

Les offres de formation AWS sont nombreuses, nous ne les énumérerons donc pas toutes ici, mais des formations gratuites sur le cloud computing ont été dispensées dans le monde entier, en présentiel et en ligne. Cela comprend une formation sur l'IA générative via l'initiative AI Ready. Wynn a mis en évidence deux rôles que les gens peuvent former aux nouvelles carrières de l'ère de l'IA : ingénieur prompt et ingénieur IA.

« Il se peut que vous n'ayez pas nécessairement recours à des data scientists », a déclaré M. Wynn. « Ils ne forment pas de modèles de base. Vous aurez peut-être recours à un ingénieur en IA. » L'ingénieur en IA peaufinera le modèle de base et l'ajoutera à une application.

« Je pense que le rôle d’ingénieur en IA est un rôle qui gagne en visibilité et en popularité », a déclaré M. Wynn. « Je pense que l’autre rôle est celui des personnes qui sont désormais responsables de l’ingénierie des réponses rapides. C’est un nouveau rôle ou un nouveau domaine de compétence qui est nécessaire parce qu’il n’est pas aussi simple que les gens pourraient le penser de donner son avis ou de donner des réponses rapides, le bon type de contexte et de détails pour obtenir certaines des spécificités que vous pourriez souhaiter d’un modèle linguistique de grande taille. »

Testeur Joe a couvert le AWS NY Summit à distance.

rewrite this content and keep HTML tags

Amazon fait partie des géants technologiques qui ont accepté l’année dernière une série de recommandations de la Maison Blanche concernant l’utilisation de l’IA générative. Les considérations relatives à la confidentialité abordées dans ces recommandations continuent de se déployer, la dernière en date étant incluse dans les annonces faites lors du sommet AWS à New York le 9 juillet. En particulier, la mise à la terre contextuelle de Guardrails for Amazon Bedrock fournit des filtres de contenu personnalisables pour les organisations déployant leur propre IA générative.

Diya Wynn, responsable de l'IA responsable d'AWS, s'est entretenue avec Testeur Joe lors d'un pré-briefing virtuel sur les nouvelles annonces et sur la manière dont les entreprises équilibrent les vastes connaissances de l'IA générative avec la confidentialité et l'inclusion.

Annonces du sommet AWS NY : modifications des garde-fous pour Amazon Bedrock

Guardrails for Amazon Bedrock, le filtre de sécurité pour les applications d'IA génératives hébergées sur AWS, présente de nouvelles améliorations :

  • Les utilisateurs de Claude 3 Haiku d'Anthropic en avant-première peuvent désormais peaufiner le modèle avec Bedrock à partir du 10 juillet.
  • Des contrôles de mise à la terre contextuelle ont été ajoutés à Guardrails pour Amazon Bedrock, qui détectent les hallucinations dans les réponses du modèle pour les applications de génération et de résumé augmentées par récupération.

En outre, Guardrails s’étend à l’API indépendante ApplyGuardrail, avec laquelle les entreprises Amazon et les clients AWS peuvent appliquer des mesures de protection aux applications d’IA génératives même si ces modèles sont hébergés en dehors de l’infrastructure AWS. Cela signifie que les créateurs d’applications peuvent utiliser des filtres de toxicité, des filtres de contenu et marquer les informations sensibles qu’ils souhaitent exclure de l’application. Wynn a déclaré que jusqu’à 85 % des contenus nuisibles peuvent être réduits grâce à des garde-fous personnalisés.

La mise à la terre contextuelle et l'API ApplyGuardrail seront disponibles le 10 juillet dans certaines régions AWS.

Les garde-fous pour Amazon Bedrock permettent aux clients de personnaliser le contenu qu'un modèle d'IA générative adoptera ou évitera. Image : AWS

La mise à la terre contextuelle de Guardrails for Amazon Bedrock fait partie de la stratégie plus large d'IA responsable d'AWS

L'ancrage contextuel est lié à la stratégie globale d'AWS en matière d'IA responsable en termes d'efforts continus d'AWS pour « faire progresser la science ainsi que continuer à innover et à fournir à nos clients des services qu'ils peuvent exploiter pour développer leurs services et développer des produits d'IA », a déclaré Wynn.

« L’un des domaines qui nous préoccupent le plus souvent, ou dont nous entendons parler, chez les clients, concerne les hallucinations », a-t-elle déclaré.

L’ancrage contextuel – et les garde-fous en général – peuvent contribuer à atténuer ce problème. Les garde-fous avec ancrage contextuel peuvent réduire jusqu’à 75 % des hallucinations observées auparavant dans l’IA générative, a déclaré Wynn.

La façon dont les clients perçoivent l’IA générative a changé à mesure que l’IA générative est devenue plus courante au cours de l’année dernière.

« Lorsque nous avons commencé à travailler avec nos clients, ceux-ci ne venaient pas forcément vers nous, n'est-ce pas ? », a déclaré M. Wynn. « Nous examinions des cas d'utilisation spécifiques et aidions à soutenir le développement, mais le changement au cours de la dernière année a finalement été une plus grande prise de conscience [of generative AI] et donc les entreprises demandent et souhaitent mieux comprendre les façons dont nous construisons et les choses qu'elles peuvent faire pour garantir la sécurité de leurs systèmes. »

Cela signifie « aborder les questions de partialité » ainsi que réduire les problèmes de sécurité ou les hallucinations de l’IA, a-t-elle déclaré.

Ajouts à l'assistant d'entreprise Amazon Q et autres annonces du sommet AWS NY

Lors du sommet AWS de New York, AWS a annoncé une série de nouvelles fonctionnalités et de modifications apportées à ses produits. Parmi les points forts, citons :

  • Une capacité de personnalisation du développeur dans l'assistant d'IA d'entreprise Amazon Q pour sécuriser l'accès à la base de code d'une organisation.
  • L'ajout d'Amazon Q à SageMaker Studio.
  • La disponibilité générale d'Amazon Q Apps, un outil permettant de déployer des applications génératives basées sur l'IA et basées sur les données de votre entreprise.
  • Accès à Scale AI sur Amazon Bedrock pour personnaliser, configurer et affiner les modèles d'IA.
  • Recherche vectorielle pour Amazon MemoryDB, accélérant la vitesse de recherche vectorielle dans les bases de données vectorielles sur AWS.

VOIR : Amazon a récemment annoncé des instances cloud alimentées par Graviton4, qui peuvent prendre en charge les puces d'IA Trainium et Inferentia d'AWS.

AWS atteint son objectif de formation au cloud computing plus tôt que prévu

Lors de son Summit NY, AWS a annoncé avoir donné suite à son initiative visant à former 29 millions de personnes dans le monde aux compétences en matière de cloud computing d'ici 2025, dépassant ainsi ce chiffre déjà atteint. Dans 200 pays et territoires, 31 millions de personnes ont suivi des cours de formation AWS liés au cloud.

Formation et rôles de l'IA

Les offres de formation AWS sont nombreuses, nous ne les énumérerons donc pas toutes ici, mais des formations gratuites sur le cloud computing ont été dispensées dans le monde entier, en présentiel et en ligne. Cela comprend une formation sur l'IA générative via l'initiative AI Ready. Wynn a mis en évidence deux rôles que les gens peuvent former aux nouvelles carrières de l'ère de l'IA : ingénieur prompt et ingénieur IA.

« Il se peut que vous n'ayez pas nécessairement recours à des data scientists », a déclaré M. Wynn. « Ils ne forment pas de modèles de base. Vous aurez peut-être recours à un ingénieur en IA. » L'ingénieur en IA peaufinera le modèle de base et l'ajoutera à une application.

« Je pense que le rôle d’ingénieur en IA est un rôle qui gagne en visibilité et en popularité », a déclaré M. Wynn. « Je pense que l’autre rôle est celui des personnes qui sont désormais responsables de l’ingénierie des réponses rapides. C’est un nouveau rôle ou un nouveau domaine de compétence qui est nécessaire parce qu’il n’est pas aussi simple que les gens pourraient le penser de donner son avis ou de donner des réponses rapides, le bon type de contexte et de détails pour obtenir certaines des spécificités que vous pourriez souhaiter d’un modèle linguistique de grande taille. »

Testeur Joe a couvert le AWS NY Summit à distance.

Laisser un commentaire