La dernière unité de traitement graphique Ampere 80 Go de NVIDIA offre une bande passante mémoire de 2 To

La dernière unité de traitement graphique Ampere 80 Go de NVIDIA offre une bande passante mémoire de 2 To

Crédit: NVIDA

NVIDA a dépassé la barre des 2 téraoctets par seconde de bande passante mémoire avec son nouveau GPU, a annoncé lundi le géant graphique de Santa Clara.

Le GPU haut de gamme A100 80 Go devrait être intégré dans plusieurs configurations de GPU dans les systèmes au cours du premier semestre 2021.

Plus tôt cette année, NVIDIA a dévoilé l’A100 avec l’architecture Ampère, affirmant que le GPU offrait “le plus grand bond en termes de performances” jamais réalisé dans sa gamme de matériel graphique. Il a déclaré que la formation de l’IA sur le GPU pourrait augmenter les performances de 20 fois la vitesse de ses unités de génération précédente.

Le nouveau modèle A100 80 Go double désormais la mémoire à bande passante élevée de 40 Go à 80 Go et augmente la vitesse de bande passante de l’ensemble de la baie de 0,4 To par seconde, de 1,6 To / s à 2 To / s.

Il dispose d’une horloge de suralimentation de 1,41 GHz, d’un bus mémoire de 5120 bits, de 19,5 TFLOPS de performances en simple précision et de 9,7 TFLOPS de performances en double précision.

«Pour obtenir des résultats de pointe dans la recherche sur le HPC et l’IA, il faut construire les plus grands modèles, mais ceux-ci exigent plus de capacité de mémoire et de bande passante que jamais auparavant», a déclaré Bryan Catanzaro, vice-président de la recherche appliquée en deep learning chez NVIDIA. «Le GPU A100 de 80 Go fournit le double de la mémoire de son prédécesseur, qui a été introduit il y a à peine six mois, et franchit la barre des 2 To par seconde, permettant aux chercheurs de relever les plus importants défis scientifiques et big data au monde.

Selon Satoshi Matsuoka, directeur du RIKEN Center for Computational Science, «Le NVIDIA A100 avec 80 Go de mémoire GPU HBM2e, fournissant les 2 To par seconde de bande passante les plus rapides au monde, contribuera à améliorer considérablement les performances des applications.

Le GPU sera recherché par les entreprises engagées dans l’analyse intensive de données, le rendu informatique basé sur le cloud et la recherche scientifique comme, par exemple, les prévisions météorologiques, la chimie quantique et la modélisation des protéines.

BMW, Lockheed Martin, NTT Docomo et le Pacific Northwest Laboratory utilisent actuellement les stations DGX de NVIDIA pour des projets d’IA.

NVIDIA a fourni des résultats de performances sur un certain nombre de tests de référence. Le GPU a obtenu une triple amélioration des performances dans l’apprentissage en profondeur de l’IA et un doublement de la vitesse dans l’analyse du Big Data.

Atos, Dell Technologies, Fujitsu, Hewlett-Packard Enterprise, Lenovo, Quanta et Supermicro devraient proposer des systèmes utilisant des plinthes HGX A100 avec des configurations à quatre ou huit GPU.

]NVIDIA a déclaré que le nouveau GPU offre des «performances de centre de données sans centre de données».

Les clients qui recherchent des GPU A1000 individuels sur une carte PCIe sont limités à la version VRAM de 40 Go uniquement, du moins pour le moment.

NVIIDA n’a pas encore annoncé de prix. Le DGX A100 original dévoilé au printemps dernier avait un prix de 199 000 $.


Nvidia apporte les GPU Ampere A100 à Google Cloud


Plus d’information:
nvidianews.nvidia.com/news/nvi… ou-ai-supercomputing

© 2020 Réseau Science X

Citation: La dernière unité de traitement graphique Ampere 80 Go de NVIDIA dispose d’une bande passante mémoire de 2 To (17 novembre 2020) récupérée le 12 avril 2021 sur https://techxplore.com/news/2020-11-nvidia-latest-ampere-80gb-graphics.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire