Close
Serveur 4U PCIe Gen 5 avec 8 x GPU NVIDIA h100 et AMD EPYC : Lambda Scalar AMD Agrandir l'image

Serveur PCIe Gen 5 avec 8 x GPU NVIDIA H100 et AMD EPYC : Lambda Scalar 4U | Lambda Labs

Le Lambda Scalar 4U H100 NVL est un serveur de calcul haute performance intégrant les dernières technologies AMD EPYC ou Intel Xeon et jusqu'à 8 GPU NVIDIA H100 PCIe.

Plus de détails

Description

Le Lambda Scalar 4U H100 NVL est un serveur de calcul haute performance intégrant les dernières technologies AMD EPYC ou Intel Xeon et jusqu'à 8 GPU NVIDIA H100 PCIe. Conçu dans un format rack 4U standardisé, il représente la nouvelle génération de serveurs d'IA offrant des performances inégalées pour les environnements d'accélération des charges de travail actuelles. Ce système est spécialement développé pour répondre aux besoins des chercheurs, développeurs et ingénieurs travaillant sur des modèles d'IA complexes nécessitant une puissance de calcul considérable, avec un refroidissement efficace et une alimentation redondante pour une fiabilité maximale.

Avantages :

  • Performances exceptionnelles avec jusqu'à 24 petaFLOPS de puissance de calcul
  • Architecture NVLink permettant une interconnexion rapide entre les GPU
  • Grande évolutivité avec support pour plusieurs processeurs et GPU
  • Excellente capacité de mémoire et de stockage
  • Format standardisé 4U compatible avec les racks standards
  • Options de refroidissement optimisées pour maintenir les performances
  • Support matériel et logiciel de classe entreprise
  • Préinstallé avec les logiciels essentiels pour l'IA
  • Solution clé en main conçue par des experts en systèmes
  • Flexibilité pour s'adapter à différents cas d'utilisation d'apprentissage automatique
  • Optimisé pour maximiser le retour sur investissement dans vos projets d'IA
  • Alimentation redondante pour une fiabilité accrue

Caractéristiques principales :

GPU

  • NVIDIA H100 NVL: 94 GB of HBM3, 14,592 CUDA cores, 456 Tensor Cores, PCIe 5.0 x16
  • NVIDIA L40S: 48 GB of GDDR6, 18,176 CUDA cores, 568 Tensor Cores, PCIe 4.0 x16
  • NVIDIA RTX 6000 Ada Generation: 48 GB of GDDR6, 18,176 CUDA cores, 568 Tensor Cores, PCIe 4.0 x16
  • NVIDIA RTX 5000 Ada Generation: 32 GB of GDDR6, 12,800 CUDA cores, 400 Tensor Cores, PCIe 4.0 x16
  • NVIDIA RTX 4500 Ada Generation: 24 GB of GDDR6, 7,680 CUDA cores, 240 Tensor Cores, PCIe 4.0 x16
  • NVIDIA RTX 4000 Ada Generation: 16 GB of GDDR6, 6,144 CUDA cores, 192 Tensor Cores, PCIe 4.0 x16
  • 80GB HBM2e par GPU

CPU

  • Compatible avec 2x AMD EPYC (jusqu'à PCIe 5.0/4.2, 192 cœurs) ou Intel Xeon processeurs
  • Options CPU EPYC 9004 (Genoa) Series Processors avec jusqu'à 192 cœurs total
  • Alternatives Intel Xeon (Sapphire Rapids) Scalable Processors
  • Les mêmes spécifications et le même format pour AMD et Intel

Mémoire

  • Jusqu'à 4TB DDR5
  • Pour AMD: jusqu'à 9 TB SDRAM avec 24 DIMM slots
  • Pour Intel: jusqu'à 9 TB SDRAM avec 32 DIMM slots
  • Minimum recommandé de 1.5 TB de RAM pour les applications de ML/IA

Stockage

  • De 0,5 To à 72 TB NVMe
  • Jusqu'à 8x U.2 NVMe SSD avec capacité de 64 TB
  • Options additionnelles disponibles

Interface réseau

  • Compatible avec NVIDIA InfiniBand
  • 100-400 Gb/s EDR
  • 1x 10 GbE RJ45 LAN port
  • 1x 1 GbE IPMI Dedicated type LAN port

Alimentation

  • Alimentation redondante 2700W 80 Plus
  • 200V et plus requis
  • Câbles de type C19/C20 (Australie/Europe/États-Unis/Royaume-Uni)

Format et dimensions

  • Format 4U Rackmount avec rails Rackmount (inclus)
  • Dimensions: 17.6" x 15.5" x 26.0" (446.4mm x 393.7mm x 660.4mm)

Compatibilité logicielle

  • Préinstallé avec Lambda Stack, incluant tous les outils nécessaires pour démarrer l'entraînement de modèles
  • Support pour PyTorch, TensorFlow, et autres frameworks d'IA populaires

Entrées/Sorties

  • 2x USB 3.0 ports
  • 1x VGA connector

Conditions d'utilisation

  • Température de fonctionnement: 10°C à 35°C
  • Humidité: 8% à 90% sans condensation
  • Altitude: jusqu'à 3000m

Applications :

  • Entraînement de grands modèles de langage (LLM)
  • Intelligence artificielle et apprentissage automatique
  • Accélération de l'inférence pour les applications d'IA
  • Recherche et développement en intelligence artificielle
  • Calcul scientifique haute performance
  • Analyse de données à grande échelle
  • Simulation scientifique et modélisation
  • Rendu 3D et traitement graphique intensif
  • Visualisation complexe
  • Simulation avancée
  • Virtualisation et environnements cloud privés
  • Applications de deep learning avec frameworks comme TensorFlow, PyTorch et autres
  • Développement et déploiement de solutions d'IA en entreprise
  • Formation de modèles d'IA générative
  • Infrastructures de serveur pour entreprises exigeantes

16 autres produits dans la même catégorie

Boostez vos capacités technologiques sans exploser votre budget

Close