AMD a réaffirmé les plans de lancement de ses processeurs EPYC Bergamo de nouvelle génération et des APU Instinct MI300 qui seront lancés cette année.
Les processeurs AMD EPYC Bergamo et les APU Instinct MI300 pour alimenter les centres de données de nouvelle génération cette année
AMD a déjà pris une avance sur Intel avec ses processeurs EPYC Genoa qui ont été lancés des mois avant les processeurs Xeon Sapphire Rapids. Avance rapide jusqu’en 2023, et AMD prévoit de lancer quatre nouveaux produits de centre de données, notamment Genoa-X, Bergamo, Siena et Instinct MI300. Lors de son récent appel aux résultats du quatrième trimestre 2022, AMD a de nouveau confirmé que ses processeurs EPYC Bergamo seront lancés au 1H 2023, suivis des APU Instinct MI300 au 2H 2023.
AMD Instinct MI300 en 2H 2023 – Alimentation de 2+ Exaflops El Capitan Supercalculateur
L’AMD Instinct MI300 sera un accélérateur multi-puces et multi-IP Instinct qui comprend non seulement les cœurs GPU CDNA 3 de nouvelle génération, mais est également équipé des cœurs CPU Zen 4 de nouvelle génération.
Les dernières spécifications dévoilées pour l’accélérateur AMD Instinct MI300 confirment que cet APU exascale va être un monstre de conception de chiplet. Le processeur comprendra plusieurs packages de puces 3D de 5 nm, tous combinés pour héberger 146 milliards de transistors insensés. Ces transistors incluent diverses adresses IP centrales, des interfaces mémoire, des interconnexions et bien plus encore. L’architecture CDNA 3 est l’ADN fondamental de l’Instinct MI300, mais l’APU est également livré avec un total de 24 cœurs de processeur Zen 4 Data Center et 128 Go de mémoire HBM3 de nouvelle génération fonctionnant dans une configuration de bus large de 8192 bits qui est vraiment esprit -soufflant.

AMD utilisera à la fois des nœuds de processus 5 nm et 6 nm pour ses APU Instinct MI300 « CDNA 3 ». La puce sera équipée de la prochaine génération d’Infinity Cache et comportera l’architecture Infinity de 4e génération qui permet la prise en charge de l’écosystème CXL 3.0. L’accélérateur Instinct MI300 fera basculer une architecture APU à mémoire unifiée et de nouveaux formats mathématiques, permettant une augmentation des performances 5 fois par watt par rapport à CDNA 2, ce qui est énorme. AMD prévoit également plus de 8 fois les performances de l’IA par rapport aux accélérateurs Instinct MI250X basés sur CDNA 2. L’UMAA du GPU CDNA 3 connectera le CPU et le GPU à un package de mémoire HBM unifié, éliminant les copies de mémoire redondantes tout en offrant un faible TCO.
En janvier, nous avons présenté en avant-première notre accélérateur MI300 de nouvelle génération qui sera utilisé pour les applications d’IA de grande taille dans les centres de données cloud et a été sélectionné pour alimenter le supercalculateur exaflopique El Capitan de plus de 2 exaflops aux Lawrence Livermore National Laboratories.
MI300 sera la première puce de centre de données de l’industrie qui combine un CPU, un GPU et une mémoire dans une conception intégrée unique, offrant 8 fois plus de performances et 5 fois plus d’efficacité pour les charges de travail HPC et AI, par rapport à notre accélérateur MI250 qui alimente actuellement le supercalculateur le plus rapide au monde. MI300 est sur la bonne voie pour commencer l’échantillonnage auprès des principaux clients plus tard ce trimestre et le lancement au second semestre 2023.
En termes de quand – nous avons déjà parlé de nos ambitions en matière de GPU de centre de données et de l’opportunité qui s’y trouve. Nous y voyons une grande opportunité. Alors que nous entrons dans la seconde moitié de l’année et que nous lançons le MI300, le premier utilisateur du MI300 sera en quelque sorte les supercalculateurs ou El Capitan, mais nous travaillons également en étroite collaboration avec certains grands fournisseurs de cloud pour qualifier le MI300 dans les charges de travail d’IA. Et nous devrions nous attendre à ce que cela soit un contributeur plus significatif en 2024. Donc, beaucoup de concentration sur une énorme opportunité, beaucoup d’investissements dans les logiciels également pour amener l’écosystème avec nous.
PDG d’AMD, Lisa Su (Appel sur les résultats du quatrième trimestre 2022)
AMD EPYC Bergamo en 1H 2023 – Augmenter le nombre de cœurs à 128 avec Zen 4C
Les puces AMD EPYC Bergamo comprendront jusqu’à 128 cœurs et viseront les puces Xeon alimentées par HBM ainsi que les produits de serveur d’Apple, d’Amazon et de Google avec un nombre de cœurs plus élevé (architecture ARM). Gênes et Bergame utiliseront le même socket SP5 et la principale différence est que Gênes est optimisé pour des horloges plus élevées tandis que Bergame est optimisé pour des charges de travail à débit plus élevé.

Bergame sera lancé au premier semestre. Nous sommes sur la bonne voie pour le lancement de Bergame, et vous verrez que cela deviendra un contributeur plus important au second semestre. Donc, en pensant à la rampe Zen 4 et au croisement avec notre rampe Zen 3, ce devrait être vers la fin de l’année, en quelque sorte au quatrième trimestre, que vous verriez un croisement d’une sorte de Zen 4 contre Zen 3, si ça t’aide.
PDG d’AMD, Lisa Su (Appel sur les résultats du quatrième trimestre 2022)
Il est indiqué que les processeurs EPYC Bergamo d’AMD arriveront au premier semestre 2023 et utiliseront le même code que Genoa et fonctionneront également comme Genoa, mais le code fait la moitié de la taille de Genoa. Les processeurs sont spécifiquement mentionnés pour rivaliser avec les processeurs Graviton d’AWS et d’autres solutions basées sur ARM où la fréquence de pointe n’est pas une exigence, mais le débit via le nombre de cœurs l’est. Un exemple de charge de travail pour Bergame serait Java où les cœurs supplémentaires peuvent certainement être utiles. Après Bergame, la gamme Siena optimisée pour le TCO pour la plate-forme SP6 jouera un rôle crucial dans l’expansion de la croissance TAM d’AMD dans le segment des serveurs.
Les puces EPYC & Instinct d’AMD devraient porter la part de marché de la société à 30 % et peut-être même la dépasser d’ici la fin de cette année. La société a vraiment une feuille de route solide dans le segment du marché des serveurs et nous avons hâte de voir comment les choses évolueront au cours des prochains trimestres.
Familles de processeurs AMD EPYC :
Nom de famille | AMD EPYC Venise | AMD EPYC Turin | AMD EPYC Sienne | AMD EPYC Bergame | AMD EPYC Gênes-X | AMD EPYC Gênes | AMD EPYC Milan-X | AMD EPYC Milan | AMD EPYC Rome | AMD EPYC Naples |
---|---|---|---|---|---|---|---|---|---|---|
Image de marque familiale | EPYC 7007 ? | EPYC 7006 ? | EPYC 7004 ? | EPYC 7005 ? | EPYC 7004 ? | EPYC 7004 ? | EPYC 7003X ? | EPYC 7003 | EPYC 7002 | EPYC 7001 |
Lancement familial | 2025+ | 2024-2025 ? | 2023 | 2023 | 2023 | 2022 | 2022 | 2021 | 2019 | 2017 |
Architecture du processeur | ZEN 6 ? | Zen 5 | Zen 4 | C’était 4C | Zen 4 V-Cache | Zen 4 | Zen 3 | Zen 3 | Zen 2 | Zen 1 |
Nœud de processus | À déterminer | TSMC 3 nm ? | 5 nm TSMC | 4 nm TSMC | 5 nm TSMC | 5 nm TSMC | TSMC 7nm | TSMC 7nm | TSMC 7nm | 14nm GloFo |
Nom de la plate-forme | À déterminer | SP5 / SP6 | SP6 | SP5 | SP5 | SP5 | SP3 | SP3 | SP3 | SP3 |
Prise | À déterminer | LGA 6096 (SP5) LGA XXXX (SP6) |
LGA 4844 | LGA 6096 | LGA 6096 | LGA 6096 | LGA 4094 | LGA 4094 | LGA 4094 | LGA 4094 |
Nombre maximal de cœurs | 384 ? | 256 | 64 | 128 | 96 | 96 | 64 | 64 | 64 | 32 |
Nombre maximal de threads | 768 ? | 512 | 128 | 256 | 192 | 192 | 128 | 128 | 128 | 64 |
Max L3 Cache | À déterminer | À déterminer | 256 Mo ? | À déterminer | 1152 Mo ? | 384 Mo ? | 768 Mo ? | 256 Mo | 256 Mo | 64 Mo |
Conception de chiplets | À déterminer | À déterminer | 8 CCD (1CCX par CCD) + 1 IOD | 12 CCD (1 CCX par CCD) + 1 IOD | 12 CCD (1 CCX par CCD) + 1 IOD | 12 CCD (1 CCX par CCD) + 1 IOD | 8 CCD avec V-Cache 3D (1 CCX par CCD) + 1 IOD | 8 CCD (1 CCX par CCD) + 1 IOD | 8 CCD (2 CCX par CCD) + 1 IOD | 4 CCD (2 CCX par CCD) |
Prise en charge de la mémoire | À déterminer | DDR5-6000 ? | DDR5-5200 | DDR5-5600 ? | DDR5-5200 | DDR5-5200 | DDR4-3200 | DDR4-3200 | DDR4-3200 | DDR4-2666 |
Canaux mémoire | À déterminer | 12 canaux (SP5) 6 canaux (SP6) |
6 canaux | 12 canaux | 12 canaux | 12 canaux | 8 canaux | 8 canaux | 8 canaux | 8 canaux |
Prise en charge de la génération PCIe | À déterminer | À déterminer | 96 Gén 5 | 160 Gén 5 | 160 Gén 5 | 160 Gén 5 | 128 génération 4 | 128 génération 4 | 128 génération 4 | 64 Gén 3 |
Gamme TDP | À déterminer | 480W (cTDP 600W) | 70-225W | 320W (cTDP 400W) | 200W (cTDP 400W) | 200W (cTDP 400W) | 280W | 280W | 280W | 200W |