NVIDIA DGX A100

Le premier système universel pour le datascience,
le deep learning et l'inferencing.

DÉCOUVREZ LES PUISSANTS COMPOSANTS

DU SYSTÈME DGX A100

NVIDIA DGX A100
01.
8 GPU NVIDIA A100 AVEC 320 GO DE MÉMOIRE GPU TOTALE
12 liaisons NVLink par GPU, 600 Go/s de bande passante GPU-vers-GPU
02.
6 MODULES NVSWITCH DE SECONDE GÉNÉRATION
4,8 To/s de bande passante bidirectionnelle, soit 2 fois plus que la génération précédente
03.
9 adaptateurs Mellanox ConnectX-6 VPI HDR InfiniBand 200Gb Ethernet
225 Go/s de bande passante bidirectionnelle maximale
04.
DEUX CPU AMD 0 64 CŒURS ET 1 TO DE MÉMOIRE SYSTÈME
2,7x plus de cœurs pour prendre en charge les opérations d’IA les plus intensives
05.
DISQUES SSD NVME GEN4 DE 15 TO
25,6 Go/s de bande passante maximale, 2x plus rapide qu’un SSD NVME Gen3

Pour voir toutes les spécifications

innovations technologiques

GPU A100

Le GPU NVIDIA A100 Tensor Core offre des capacités d’accélération sans précédent pour les workflows d’intelligence artificielle, d’analyse de données et de calcul haute performance afin répondre aux défis informatiques les plus complexes au monde. Ses cœurs Tensor de 3e génération vous offrent un gain de performance considérable. Un seul GPU A100 peut vous aider à mettre en œuvre une puissance de calcul phénoménale ou - grâce à la technologie de GPU multi-instances (MIG) - vous pouvez le partitionner en sept instances de GPU pour accélérer tous les types de charges de travail.

MIG - GPU MULTI-INSTANCES

Avec MIG, les huit GPU A100 du système DGX A100 peuvent être partitionnés en 56 instances de GPU, entièrement isolées et sécurisées au niveau matériel avec leur propre mémoire à bande passante élevée, un cache dédié et des cœurs de calcul à hautes performances. Les administrateurs peuvent ainsi mettre en œuvre des GPU parfaitement calibrés avec une qualité de service optimale pour de multiples charges de travail.

NVLINK ET NVSWITCH

La technologie d’interconnexion NVIDIA® NVLink™ de troisième génération qui équipe le système DGX A100 autorise une bande passante directe GPU-vers-GPU pouvant atteindre 600 gigaoctets par seconde (Go/s), ce qui offre un rendement 10 fois plus élevé qu’avec la norme PCIe Gen4. DGX A100 inclut également la technologie NVIDIA NVSwitch™ de nouvelle génération, jusqu’à 2 fois plus rapide qu’avec les solutions de génération précédente.

Infiniband

Le système DGX A100 incorpore de nouveaux types d'adaptateurs Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet tournant à 200 Gb/s, ce qui vous permet de mettre en œuvre une structure réseau à haute vitesse pour les charges de travail d’IA à grande échelle.

Pile logicielle optimisée

DGX A100 intègre une pile logicielle testée et optimisée incluant un système d’exploitation dédié à l’IA, tous les logiciels système requis, des applications accélérées par GPU, des modèles pré-entraînés et bien plus encore grâce à NGC™.

Sécurité intégrée

Par défaut, DGX A100 fournit le plus haut niveau de sécurité pour les déploiements d’IA grâce à une philosophie multi-couches qui permet de sécuriser tous les principaux composants matériels et logiciels, y compris les lecteurs à chiffrement automatique, les conteneurs logiciels signés, les outils de gestion et de supervision, et plus encore.

Principaux frameworks pré-installés

Essentiel pour les data centers dédiés à l'IA

data-center-dgx-a100-benefits-icon_universal-system

Système universel d’IA

Système universel pour les infrastructures d’IA, NVIDIA DGX A100 peut traiter une grande variété de charges de travail allant de l’analyse de données à l’entraînement en passant par l’inférence. Doté d’une puissance de calcul sans précédent de 5 pétaflops dans une configuration au format 6U, le système A100 définit un nouveau standard pour la densité de calcul et remplace les infrastructures héritées avec une plateforme unique pour toutes les charges de travail d’IA.
data-center-dgx-a100-benefits-icon_dgxperts

DGXperts : accès à une expertise inégalée

NVIDIA DGXperts est un programme qui regroupe une équipe internationale de plus de 14 000 professionnels, spécialisés dans l’intelligence artificielle et possédant plus d’une décennie d’expérience, qui vous aideront à maximiser votre retour sur investissement avec les systèmes DGX.
data-center-dgx-a100-benefits-icon_fastest-time

Réduction majeure des délais de déploiement

NVIDIA DGX A100 est le tout premier système au monde basé sur le GPU NVIDIA A100 Tensor Core à hautes performances. Équipé d’un total de huit GPU A100, le système A100 délivre une accélération incomparable du calcul informatique et a été spécialement optimisé pour l’environnement logiciel NVIDIA CUDA-X™. Il prend en charge la pile de solutions de bout en bout NVIDIA pour Data Center.
data-center-dgx-a100-benefits-icon_unmatched-data

Évolutivité inégalée pour les Data Centers

Le système NVIDIA DGX A100 comporte des fonctionnalités Mellanox de mise en réseau fournissant une bande passante bidirectionnelle pouvant atteindre 225 gigaoctets par seconde (Go/s). Cette fonctionnalité s’ajoute aux nombreuses autres innovations technologiques qui font du système DGX A100 une base fondamentale des clusters avancés d’IA tels que NVIDIA DGX SuperPOD™, la solution d’entreprise incontournable pour les infrastructures d’IA à haut degré d’évolutivité.

Performances révolutionnaires

Analyse de données

PageRank

Une analyse plus rapide permet d’approfondir les données pour optimiser le développement de vos projets d’IA

Graph Edges per Second (Billions)

3,000X CPU Servers vs. 4X DGX A100. Published Common Crawl Data Set: 128B Edges, 2.6TB Graph.

Entraînement

NLP: BERT-Large

Un entraînement plus rapide permet de mettre en œuvre des modèles d’intelligence artificielle encore plus avancés

Sequences per Second

BERT Pre-Training Throughput using PyTorch including (2/3)Phase 1 and (1/3)Phase 2. Phase 1 Seq Len = 128, Phase 2 Seq Len = 512. V100: DGX-1 with 8X V100 using FP32 precision. DGX A100: DGX A100 with 8X A100 using TF32 precision.

Inférence

Peak Compute

Une inférence plus rapide améliore le retour sur investissement grâce à un utilisation optimale du système

TeraOPS per Second

CPU Server: 2X Intel Platinum 8280 using INT8. DGX A100: DGX A100 with 8X A100 using INT8 with Structural Sparsity.

Contactez Sébastien Maitre, notre spécialiste IA

    Select the fields to be shown. Others will be hidden. Drag and drop to rearrange the order.
    • Image
    • SKU
    • Rating
    • Price
    • Stock
    • Availability
    • Add to cart
    • Description
    • Content
    • Weight
    • Dimensions
    • Additional information
    Click outside to hide the comparison bar
    Compare