La demande de GPU NVIDIA AI explose, les prix des puces augmentent de 40 % et des ruptures de stock sont attendues jusqu’en décembre

L’activité GPU de NVIDIA est en plein essor grâce à l’IA, mais il semble que la société ne soit pas en mesure de répondre à la demande alors qu’elle tente d’augmenter la production chez TSMC.

Les GPU NVIDIA A100 et H100 sont si chauds en ce moment en raison du boom de l’IA que l’entreprise pourrait ne pas être en mesure de répondre à la demande

Le boom de l’activité GPU de NVIDIA est le résultat d’innombrables années de pari sur l’IA comme la prochaine grande chose. Avec ChatGPT et d’autres modèles d’IA génératifs, il semble que les paris de NVIDIA aient porté leurs fruits et que la société reçoive des commandes de tous les coins de l’industrie technologique pour mettre la main sur ses tout nouveaux GPU, notamment l’A100 et le H100.

Plusieurs rapports suggèrent maintenant que NVIDIA pourrait ne pas être en mesure de répondre à la demande massive de puces AI malgré tous ses efforts. Un rapport récent de DigiTimes suggère que, alors que l’équipe verte voit une augmentation des commandes pour ses derniers GPU, la société a commencé à augmenter la production de ses puces chez TSMC.

Nvidia a vu une augmentation des commandes pour ses GPU A100 et H100 AI, entraînant une augmentation des démarrages de tranches chez TSMC, selon des sources du marché.

Le boom de l’IA provoqué par ChatGPT a fait monter en flèche la demande de GPU à haut niveau de calcul. Couplé à l’interdiction américaine des ventes de puces IA à la Chine, de grandes entreprises chinoises comme Baidu rachètent les GPU IA de Nvidia.

via DigiTimes

Le NVIDIA A100 utilise le nœud de processus TSMC 7 nm tandis que le H100, qui a commencé à être livré en mai dernier, est basé sur le nœud de processus TSMC 4N (une version optimisée du nœud 5 nm conçu pour NVIDIA). Depuis son lancement, la société a connu une énorme demande pour ses serveurs alimentés par GPU H100 et DGX H100. Bien que NVIDIA ait essayé de répondre à la demande, le récent boom de l’IA a eu un impact considérable sur les efforts de l’entreprise pour répondre à la demande.

En Chine, où la société propose une version modifiée de ses GPU A100 et H100 pour contourner les sanctions américaines, connue sous le nom d’A800 et H800, ces puces sont proposées à des prix 40 % supérieurs au PDSF d’origine. La Chine a une telle demande pour ces GPU AI en ce moment que même le V100, un GPU lancé en 2018 et le premier avec l’architecture Tensor Core, est au prix d’environ 10 000 US ou 69 000 RMB. Le NVIDIA A800 est au prix d’environ 252 000 RMB ou 36 500 $ US.

Une image du GPU Hopper H100 phare de NVIDIA. (Crédits : Nvidia)

Le cycle de livraison aurait également été affecté, car NVIDIA souhaite d’abord répondre aux besoins de ses partenaires technologiques non chinois. Ainsi, le délai de livraison en Chine qui était d’environ 3 mois pour les GPU de NVIDIA est désormais porté à 3 mois et dans certains cas encore plus. Il est rapporté que certaines des nouvelles commandes pourraient ne pas être exécutées avant décembre, ce qui représente un temps d’attente de plus de 6 mois.

Dans un rapport précédent, nous avons mentionné comment la demande de GPU HPC et AI de NVIDIA peut perturber l’offre de puces de jeu, car la société souhaite allouer plus de ressources à l’IA, ce qu’elle appelle une révolution pour l’industrie des PC et de la technologie. On s’attendait à ce que la demande dépasse tôt ou tard l’offre, mais NVIDIA travaille 24 heures sur 24 pour s’assurer qu’elle peut toujours offrir un approvisionnement décent en puces à ses plus grands partenaires qui sont prêts à payer le prix supplémentaire pour obtenir le meilleur AI puces dans le monde. NVIDIA a également été le principal moteur de ChatGPT et plusieurs milliers de ses GPU alimentent les modèles actuels et les plus récents.

Partagez cette histoire

Facebook

Twitter

Laisser un commentaire