L’IA poussant Nvidia vers 1 000 milliards de dollars n’aidera pas Intel et AMD

Nvidia L’action a bondi près d’une capitalisation boursière de 1 000 milliards de dollars dans les échanges après les heures de bureau mercredi après avoir annoncé des perspectives extrêmement solides et le PDG Jensen Huang a déclaré que la société allait connaître une “année record géante”.

Les ventes sont en hausse en raison de la demande croissante pour les processeurs graphiques (GPU) fabriqués par Nvidia, qui alimentent les applications d’IA comme celles de Google, Microsoft et OpenAI.

La demande de puces IA dans les centres de données a incité Nvidia à atteindre 11 milliards de dollars de ventes au cours du trimestre en cours, faisant exploser les estimations des analystes de 7,15 milliards de dollars.

“Le point d’éclair était l’IA générative”, a déclaré Huang dans une interview à CNBC. “Nous savons que la mise à l’échelle du processeur a ralenti, nous savons que l’informatique accélérée est la voie à suivre, puis l’application qui tue est apparue.”

Nvidia pense qu’il s’agit d’un changement distinct dans la façon dont les ordinateurs sont construits, ce qui pourrait entraîner encore plus de croissance – les pièces pour les centres de données pourraient même devenir un marché de 1 billion de dollars, dit Huang.

Historiquement, la partie la plus importante d’un ordinateur ou d’un serveur était le processeur central, ou CPU. Ce marché était dominé par Intelavec DMLA comme son principal rival.

Avec l’avènement des applications d’IA qui nécessitent beaucoup de puissance de calcul, le processeur graphique (GPU) occupe le devant de la scène et les systèmes les plus avancés utilisent jusqu’à huit GPU pour un CPU. Nvidia domine actuellement le marché des GPU AI.

“Le centre de données du passé, qui était en grande partie des processeurs pour la récupération de fichiers, sera, à l’avenir, des données génératives”, a déclaré Huang. “Au lieu de récupérer des données, vous allez récupérer certaines données, mais vous devez générer la plupart des données à l’aide de l’IA.”

“Ainsi, au lieu de millions de processeurs, vous aurez beaucoup moins de processeurs, mais ils seront connectés à des millions de GPU”, a poursuivi Huang.

Par exemple, les propres systèmes DGX de Nvidia, qui sont essentiellement un ordinateur AI pour la formation dans un seul boîtier, utilisent huit des GPU H100 haut de gamme de Nvidia et seulement deux processeurs.

Le supercalculateur A3 de Google associe huit GPU H100 à un seul processeur Xeon haut de gamme fabriqué par Intel.

C’est l’une des raisons pour lesquelles l’activité des centres de données de Nvidia a augmenté de 14 % au cours du premier trimestre civil, contre une croissance stable pour l’unité des centres de données d’AMD et une baisse de 39 % de l’unité commerciale IA et centres de données d’Intel.

De plus, les GPU de Nvidia ont tendance à être plus chers que de nombreux processeurs centraux. La dernière génération de processeurs Xeon d’Intel peut coûter jusqu’à 17 000 $ au prix catalogue. Un seul Nvidia H100 peut se vendre 40 000 $ sur le marché secondaire.

Nvidia devra faire face à une concurrence accrue à mesure que le marché des puces AI se réchauffe. AMD a une activité GPU compétitive, en particulier dans les jeux, et Intel a également sa propre gamme de GPU. Les startups construisent de nouveaux types de puces spécifiquement pour l’IA, et les entreprises axées sur le mobile comme Qualcomm et Apple continue de pousser la technologie pour qu’un jour elle puisse fonctionner dans votre poche, et non dans une ferme de serveurs géante. Google et Amazon conçoivent leurs propres puces IA.

Mais les GPU haut de gamme de Nvidia restent la puce de choix pour les entreprises actuelles qui créent des applications comme ChatGPT, qui coûtent cher à former en traitant des téraoctets de données, et qui coûtent cher à exécuter plus tard dans un processus appelé “inférence”, qui utilise le modèle pour générer du texte, des images ou faire des prédictions.

Les analystes disent que Nvidia reste en tête pour les puces AI en raison de son logiciel propriétaire qui facilite l’utilisation de toutes les fonctionnalités matérielles GPU pour les applications AI.

Huang a déclaré mercredi que le logiciel de la société ne serait pas facile à reproduire.

“Vous devez concevoir tous les logiciels, toutes les bibliothèques et tous les algorithmes, les intégrer et les optimiser dans les cadres, et les optimiser pour l’architecture, pas seulement une puce, mais l’architecture de tout un centre de données”, a déclaré Huang. a déclaré lors d’un appel avec des analystes.

rewrite this content and keep HTML tags

Nvidia L’action a bondi près d’une capitalisation boursière de 1 000 milliards de dollars dans les échanges après les heures de bureau mercredi après avoir annoncé des perspectives extrêmement solides et le PDG Jensen Huang a déclaré que la société allait connaître une “année record géante”.

Les ventes sont en hausse en raison de la demande croissante pour les processeurs graphiques (GPU) fabriqués par Nvidia, qui alimentent les applications d’IA comme celles de Google, Microsoft et OpenAI.

La demande de puces IA dans les centres de données a incité Nvidia à atteindre 11 milliards de dollars de ventes au cours du trimestre en cours, faisant exploser les estimations des analystes de 7,15 milliards de dollars.

“Le point d’éclair était l’IA générative”, a déclaré Huang dans une interview à CNBC. “Nous savons que la mise à l’échelle du processeur a ralenti, nous savons que l’informatique accélérée est la voie à suivre, puis l’application qui tue est apparue.”

Nvidia pense qu’il s’agit d’un changement distinct dans la façon dont les ordinateurs sont construits, ce qui pourrait entraîner encore plus de croissance – les pièces pour les centres de données pourraient même devenir un marché de 1 billion de dollars, dit Huang.

Historiquement, la partie la plus importante d’un ordinateur ou d’un serveur était le processeur central, ou CPU. Ce marché était dominé par Intelavec DMLA comme son principal rival.

Avec l’avènement des applications d’IA qui nécessitent beaucoup de puissance de calcul, le processeur graphique (GPU) occupe le devant de la scène et les systèmes les plus avancés utilisent jusqu’à huit GPU pour un CPU. Nvidia domine actuellement le marché des GPU AI.

“Le centre de données du passé, qui était en grande partie des processeurs pour la récupération de fichiers, sera, à l’avenir, des données génératives”, a déclaré Huang. “Au lieu de récupérer des données, vous allez récupérer certaines données, mais vous devez générer la plupart des données à l’aide de l’IA.”

“Ainsi, au lieu de millions de processeurs, vous aurez beaucoup moins de processeurs, mais ils seront connectés à des millions de GPU”, a poursuivi Huang.

Par exemple, les propres systèmes DGX de Nvidia, qui sont essentiellement un ordinateur AI pour la formation dans un seul boîtier, utilisent huit des GPU H100 haut de gamme de Nvidia et seulement deux processeurs.

Le supercalculateur A3 de Google associe huit GPU H100 à un seul processeur Xeon haut de gamme fabriqué par Intel.

C’est l’une des raisons pour lesquelles l’activité des centres de données de Nvidia a augmenté de 14 % au cours du premier trimestre civil, contre une croissance stable pour l’unité des centres de données d’AMD et une baisse de 39 % de l’unité commerciale IA et centres de données d’Intel.

De plus, les GPU de Nvidia ont tendance à être plus chers que de nombreux processeurs centraux. La dernière génération de processeurs Xeon d’Intel peut coûter jusqu’à 17 000 $ au prix catalogue. Un seul Nvidia H100 peut se vendre 40 000 $ sur le marché secondaire.

Nvidia devra faire face à une concurrence accrue à mesure que le marché des puces AI se réchauffe. AMD a une activité GPU compétitive, en particulier dans les jeux, et Intel a également sa propre gamme de GPU. Les startups construisent de nouveaux types de puces spécifiquement pour l’IA, et les entreprises axées sur le mobile comme Qualcomm et Apple continue de pousser la technologie pour qu’un jour elle puisse fonctionner dans votre poche, et non dans une ferme de serveurs géante. Google et Amazon conçoivent leurs propres puces IA.

Mais les GPU haut de gamme de Nvidia restent la puce de choix pour les entreprises actuelles qui créent des applications comme ChatGPT, qui coûtent cher à former en traitant des téraoctets de données, et qui coûtent cher à exécuter plus tard dans un processus appelé “inférence”, qui utilise le modèle pour générer du texte, des images ou faire des prédictions.

Les analystes disent que Nvidia reste en tête pour les puces AI en raison de son logiciel propriétaire qui facilite l’utilisation de toutes les fonctionnalités matérielles GPU pour les applications AI.

Huang a déclaré mercredi que le logiciel de la société ne serait pas facile à reproduire.

“Vous devez concevoir tous les logiciels, toutes les bibliothèques et tous les algorithmes, les intégrer et les optimiser dans les cadres, et les optimiser pour l’architecture, pas seulement une puce, mais l’architecture de tout un centre de données”, a déclaré Huang. a déclaré lors d’un appel avec des analystes.

Laisser un commentaire