Jaunākais HGX B200 piedāvā ievērojamu veiktspējas pieaugumu AI darba slodzēm, salīdzinot ar HGX H200, īpaši tādās jomās kā FP8, INT8, FP16/BF16 un TF32 Tensor Core operācijas, kur tas lepojas ar 125% uzlabojumu.
Tomēr, aplūkojot FP32 un FP64, lēciens ir mazāks, apmēram 18,5%.
Pārsteidzoši, FP64 Tensor Core veiktspēja patiesībā samazinās, krītoties par aptuveni 40%.
B200 izceļas atmiņas jomā, piedāvājot lielāku kopējo atmiņas apjomu (1,5 TB pret 1,1 TB) un divreiz lielāku NVSwitch GPU-GPU joslas platumu. Šī ātrākā saziņa būtiski maina liela mēroga AI modeļu apmācību.
Tomēr, kad attēlā parādās paredzamā cena, lietas kļūst interesantas.
B200 cena ir par aptuveni 21,5% augstāka, tāpēc, lai gan jūs iegūstat lielu AI veiktspējas pieaugumu, aprēķinu jaudas uz vienu dolāru uzlabojums ir mazāk dramatisks, aptuveni 85% lielākajai daļai AI operāciju (joprojām milzīgs).
Attiecībā uz darba slodzēm, kas lielā mērā paļaujas uz FP32 un FP64, jūs pat varētu saņemt nedaudz mazāk par savu naudu ar B200.
Funkcija | Mērvienība | HGX H200 (8x H200 SXM) | HGX B200 (8x B200 SXM) | Veiktspējas atšķirība | Aprēķinu jaudas uz dolāru atšķirība |
---|---|---|---|---|---|
INT8 Tensor Core | POPS | 32 | 72 | 125.00% | 85.11% |
FP4 Tensor Core | PFLOPS | – | 144 | – | – |
FP6 Tensor Core | PFLOPS | – | 72 | – | – |
FP8 Tensor Core | PFLOPS | 32 | 72 | 125.00% | 85.11% |
FP16/BF16 Tensor Core | PFLOPS | 16 | 36 | 125.00% | 85.11% |
TF32 Tensor Core | PFLOPS | 8 | 18 | 125.00% | 85.11% |
FP32 | TFLOPS | 540 | 640 | 18.52% | -2.50% |
FP64 | TFLOPS | 270 | 320 | 18.52% | -2.50% |
FP64 Tensor Core | TFLOPS | 540 | 320 | -40.74% | -51.25% |
Atmiņa | TB | 1.1 | 1.5 | 36.36% | 12.18% |
NVSwitch GPU-GPU joslas platums | GB/s | 900 | 1800 | 100.00% | 64.52% |
Kopējais apkopotais joslas platums | TB/s | 7.2 | 14.4 | 100.00% | 64.52% |
Aptuvenā cena | USD | 290000 | 352500 | 21.55% | – |