24 cœurs de processeur Zen 4, 146 milliards de transistors, 128 Go HBM3, jusqu’à 8 fois plus rapide que MI250X

AMD vient de confirmer les spécifications de son accélérateur Instinct MI300 ‘CDNA 3’ qui utilise les cœurs de processeur Zen 4 dans un package de puces 3D de 5 nm.

Spécifications AMD Instinct MI300 ‘CDNA 3’ : conception de puces 5 nm, 146 milliards de transistors, 24 cœurs de processeur Zen 4, 128 Go HBM3

Les dernières spécifications dévoilées pour l’accélérateur AMD Instinct MI300 confirment que cet APU exascale va être un monstre de conception de chiplet. Le processeur comprendra plusieurs packages de puces 3D de 5 nm, tous combinés pour héberger 146 milliards de transistors insensés. Ces transistors incluent diverses adresses IP centrales, des interfaces mémoire, des interconnexions et bien plus encore. L’architecture CDNA 3 est l’ADN fondamental de l’Instinct MI300, mais l’APU est également livré avec un total de 24 cœurs de processeur Zen 4 Data Center et 128 Go de mémoire HBM3 de nouvelle génération fonctionnant dans une configuration de bus large de 8192 bits.

Lors de l’AMD Financial Day 2022, la société a confirmé que le MI300 sera un accélérateur multi-puces et multi-IP Instinct qui comprend non seulement les cœurs GPU CDNA 3 de nouvelle génération, mais est également équipé du processeur Zen 4 de nouvelle génération. noyaux.

Pour permettre plus de 2 exaflops de puissance de traitement en double précision, le département américain de l’Énergie, le Lawrence Livermore National Laboratory et HPE se sont associés à AMD pour concevoir El Capitan, qui devrait être le supercalculateur le plus rapide au monde avec une livraison prévue début 2023. El Capitan tirera parti des produits de nouvelle génération qui intègrent des améliorations de la conception de processeurs personnalisés dans Frontier.

  • Les processeurs AMD EPYC de nouvelle génération, nommés “Genoa”, comprendront le cœur de processeur “Zen 4” pour prendre en charge la mémoire de nouvelle génération et les sous-systèmes d’E/S pour les charges de travail AI et HPC
  • Les GPU AMD Instinct de nouvelle génération basés sur une nouvelle architecture optimisée pour les calculs pour les charges de travail HPC et AI utiliseront une mémoire à large bande passante de nouvelle génération pour des performances d’apprentissage en profondeur optimales

Cette conception excellera dans l’analyse des données d’IA et d’apprentissage automatique pour créer des modèles plus rapides, plus précis et capables de quantifier l’incertitude de leurs prédictions.

via AMD

AMD utilisera le nœud de processus 5 nm pour ses GPU Instinct MI300 « CDNA 3 ». La puce sera équipée de la prochaine génération d’Infinity Cache et comportera l’architecture Infinity de 4e génération qui permet la prise en charge de l’écosystème CXL 3.0. L’accélérateur Instinct MI300 fera basculer une architecture APU à mémoire unifiée et de nouveaux formats mathématiques, permettant une augmentation des performances 5 fois par watt par rapport à CDNA 2, ce qui est énorme. AMD prévoit également plus de 8 fois les performances de l’IA par rapport aux accélérateurs Instinct MI250X basés sur CDNA 2. L’UMAA du GPU CDNA 3 connectera le CPU et le GPU à un package de mémoire HBM unifié, éliminant les copies de mémoire redondantes tout en offrant un faible TCO.

Les accélérateurs APU Instinct MI300 d’AMD devraient être disponibles d’ici la fin de 2023, soit en même temps que le déploiement du supercalculateur El Capitan mentionné ci-dessus.

Partagez cette histoire

Facebook

Twitter

Laisser un commentaire