NVIDIA HGX B200 vs HGX H200

カテゴリー: GPUNVIDIA
Save and Share:

新型のHGX B200は、特にFP8、INT8、FP16/BF16、TF32 Tensor Core演算において、AIワークロードのパフォーマンスをHGX H200と比較して大幅に向上させ、125%の向上を誇ります。

しかし、FP32FP64を見ると、その差は小さく、約18.5%の向上にとどまります。

驚くべきことに、FP64 Tensor Coreのパフォーマンスは実際には低下し、約40%減少しています。

B200はメモリ容量の点で優れており、総メモリ容量が大きく(1.5 TB vs 1.1 TB)NVSwitchのGPU間帯域幅が2倍になっています。この高速な通信は、大規模なAIモデルのトレーニングにおいて非常に重要です。

ただし、推定価格を考慮に入れると、状況は興味深いものになります。

B200の価格は約21.5%高く、AIパフォーマンスは大幅に向上するものの、コストあたりの計算能力の向上はそれほど劇的ではなく、ほとんどのAI演算で約85%です(それでも大きいですが)。

FP32FP64に大きく依存するワークロードの場合、B200ではコストパフォーマンスがわずかに低下する可能性さえあります。

FeatureUnitHGX H200 (8x H200 SXM)HGX B200 (8x B200 SXM)Performance DifferenceCompute per Dollar Difference
INT8 Tensor CorePOPS3272125.00%85.11%
FP4 Tensor CorePFLOPS144
FP6 Tensor CorePFLOPS72
FP8 Tensor CorePFLOPS3272125.00%85.11%
FP16/BF16 Tensor CorePFLOPS1636125.00%85.11%
TF32 Tensor CorePFLOPS818125.00%85.11%
FP32TFLOPS54064018.52%-2.50%
FP64TFLOPS27032018.52%-2.50%
FP64 Tensor CoreTFLOPS540320-40.74%-51.25%
MemoryTB1.11.536.36%12.18%
NVSwitch GPU-to-GPU BandwidthGB/s9001800100.00%64.52%
Total Aggregate BandwidthTB/s7.214.4100.00%64.52%
Estimated PriceUSD29000035250021.55%
HGX B200 vs HGX H200 detailed comparison table

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です