O novo HGX B200 oferece um aumento massivo no desempenho para cargas de trabalho de IA em comparação com o HGX H200, particularmente em áreas como operações de FP8, INT8, FP16/BF16 e TF32 Tensor Core, onde ostenta uma melhora de 125%.
No entanto, quando analisamos FP32 e FP64, o salto é menor, em torno de 18,5%.
Surpreendentemente, o desempenho do FP64 Tensor Core, na verdade, sofre uma queda, com um declínio de cerca de 40%.
O B200 realmente brilha no quesito memória, oferecendo uma capacidade total de memória maior (1,5 TB contra 1,1 TB) e uma largura de banda NVSwitch GPU para GPU dobrada. Essa comunicação mais rápida é um divisor de águas para o treinamento de modelos de IA em larga escala.
No entanto, quando colocamos o preço estimado na equação, as coisas ficam interessantes.
O preço do B200 é cerca de 21,5% maior, então, embora você obtenha um grande aumento no desempenho de IA, a melhoria de poder de computação por dólar é menos dramática, em torno de 85% para a maioria das operações de IA (ainda enorme).
Para cargas de trabalho que dependem fortemente de FP32 e FP64, você pode até estar obtendo um retorno ligeiramente menor do seu investimento com o B200.
Feature | Unit | HGX H200 (8x H200 SXM) | HGX B200 (8x B200 SXM) | Performance Difference | Compute per Dollar Difference |
---|---|---|---|---|---|
INT8 Tensor Core | POPS | 32 | 72 | 125.00% | 85.11% |
FP4 Tensor Core | PFLOPS | – | 144 | – | – |
FP6 Tensor Core | PFLOPS | – | 72 | – | – |
FP8 Tensor Core | PFLOPS | 32 | 72 | 125.00% | 85.11% |
FP16/BF16 Tensor Core | PFLOPS | 16 | 36 | 125.00% | 85.11% |
TF32 Tensor Core | PFLOPS | 8 | 18 | 125.00% | 85.11% |
FP32 | TFLOPS | 540 | 640 | 18.52% | -2.50% |
FP64 | TFLOPS | 270 | 320 | 18.52% | -2.50% |
FP64 Tensor Core | TFLOPS | 540 | 320 | -40.74% | -51.25% |
Memory | TB | 1.1 | 1.5 | 36.36% | 12.18% |
NVSwitch GPU-to-GPU Bandwidth | GB/s | 900 | 1800 | 100.00% | 64.52% |
Total Aggregate Bandwidth | TB/s | 7.2 | 14.4 | 100.00% | 64.52% |
Estimated Price | USD | 290000 | 352500 | 21.55% | – |