NVIDIA Blackwell B200 kontra AMD MI350 kontra Google TPU v6e – Wielki pojedynek akceleratorów AI 2025 roku
NVIDIA Blackwell B200 ma 180 GB pamięci HBM3e na GPU i maksymalną przepustowość pamięci do 8 TB/s. B200 obsługuje nowe precyzje FP4 i FP6 (wyłączając FP8/FP16/TF32), co daje szczytową wydajność tensorową do 18 PFLOPS FP4. Układ jest modułowy (chiplet) i wykorzystuje Transformer Engine, co zwiększa możliwości AI przy niższych precyzjach. Pojedynczy B200 zużywa około 1,5 kW, a konfiguracja DGX B200 z 8 kartami pobiera około 14,3 kW. NVIDIA twierdzi, że DGX B200 zapewnia 3× wydajności w treningu i 15× w inferencji w zintegrowanych przepływach w porównaniu z DGX H100. W testach MLPerf 8× B200 osiąga 3,1× wyższą przepustowość w inferencji