NOWY JORK, 6 lutego 2026, 16:33 (EST)
- Akcje Micron spadły przed otwarciem giełdy, gdy Semianalysis obniżył prognozę udziału Micronu w dostawach HBM4 dla Nvidii aż do zera.
- Szacunki firmy badawczej wskazują, że podział dostaw HBM4 dla Nvidii wynosi około 70% dla SK Hynix i 30% dla Samsunga.
- Nvidia naciska na Samsunga w sprawie wcześniejszych dostaw HBM4, jak donosi DigiTimes, w obliczu zbliżających się niedoborów pamięci.
Micron Technology spadł o 0,5% przed otwarciem giełdy w piątek po tym, jak Semianalysis obniżył prognozę, przewidując, że Micron nie będzie miał udziału w dostawach pamięci HBM4 dla nadchodzącej linii produktów Nvidii. 1
Ta prognoza ma znaczenie: pamięć o wysokiej przepustowości—w skrócie HBM—to układana warstwowo DRAM tuż obok procesorów AI, przesyłająca dane z maksymalną prędkością. Jeśli dostawca trafi na listę Nvidii, może to oznaczać lata wysokich wolumenów i przewagi cenowej. Brak udziału oznacza walkę o kolejną szansę w następnym cyklu.
Inwestorzy śledzą szeroko zakrojone inwestycje w infrastrukturę AI, a niedobory pamięci ponownie stają się kluczowym ograniczeniem. W tym roku największe amerykańskie firmy technologiczne są na dobrej drodze, by wydać ponad 630 miliardów dolarów na centra danych i układy AI. „Skala wydatków jest znacznie większa niż oczekiwał konsensus”, zauważyli analitycy MoffettNathanson. 2
Akcje Micron wzrosły o około 4% w handlu przedsesyjnym po tym, jak Amazon ogłosił cel wydatków kapitałowych na poziomie 200 miliardów dolarów na 2026 rok—co jasno pokazuje, że ekspansja chmury nie zwalnia. Jednak ten wzrost szybko się skończył, gdy notatka Semianalysis zaczęła krążyć, a kurs akcji się cofnął.
Semianalysis nie widzi „sygnałów, że Nvidia zamawia HBM4 od Micronu” i obecnie zakłada, że Nvidia pozostanie przy SK Hynix i Samsungu w kwestii HBM4. Firma szacuje, że SK Hynix przejmie około 70% udziału, Samsung 30%, wskazując na „słabą wydajność prędkości z powodu użycia wewnętrznego układu bazowego” jako czynnik wcześniejszej obniżki oceny.
DigiTimes informuje, że Nvidia złożyła wczesne zamówienie w Samsung Electronics na szóstą generację pamięci o wysokiej przepustowości, czyli HBM4, ponieważ producenci chipów kierują coraz większą produkcję na HBM, a napięta podaż zaczyna doskwierać. 3
Według TechPowerUp, Nvidia planuje pozostać przy HBM4 od SK Hynix i Samsunga dla swojej linii „Vera Rubin”, całkowicie pomijając Micron. 4
Jeśli te prognozy się sprawdzą, konkurencja między trzema głównymi dostawcami HBM stanie się jeszcze bardziej zacięta. SK Hynix pozostaje na prowadzeniu, Samsung zdobywa trochę więcej udziału, a Micron musi szukać nowych kontraktów na HBM lub liczyć na przyszłe przydziały od Nvidii.
HBM to nie jest zwykła pamięć towarowa. Zamiast tego, jest budowana w stosach, z których każdy jest połączony z logicznym „bazowym układem scalonym”, który koordynuje stos i łączy wszystko z pakietem procesora. Granica wydajności stale się przesuwa, ponieważ układy AI są nieustannie głodne większej przepustowości.
Przydziały dostawców są zawsze zmienne, ponieważ trwają testy kwalifikacyjne, zmieniają się uzyski i terminy; Nvidia nie ujawnia źródeł dla niczego, co nie jest jeszcze szeroko dostępne. „Rynek po prostu nie lubi ogromnych kwot pieniędzy, które są stale inwestowane w nakłady kapitałowe przy tych tempach wzrostu” – powiedział Dave Wagner, zarządzający portfelem w Aptus Capital Advisors, podkreślając, jak szybko może się zmienić nastawienie wobec wydatków na AI i firm dostarczających sprzęt. 5
Akcjonariusze Microna zastanawiają się, czy firma zdoła zdobyć znaczącą pozycję w HBM4, gdy Nvidia przygotowuje się do kolejnej fazy sprzętu AI. Piątkowa sesja pokazała jasno — jedna informacja od dostawcy wystarczyła, by zagłuszyć inny, silny sygnał popytu.