NEW YORK, 6. Februar 2026, 16:33 (EST)
- Micron-Aktien fielen vorbörslich, nachdem Semianalysis seine Prognose für Microns Nvidia-HBM4-Anteil auf null gesenkt hatte.
- Schätzungen von Forschungsunternehmen sehen die HBM4-Lieferaufteilung von Nvidia bei etwa 70 % für SK Hynix und 30 % für Samsung.
- Nvidia drängt Samsung laut DigiTimes auf frühzeitige Lieferungen von HBM4, da ein Mangel an Speicher bevorsteht.
Micron Technology fiel am Freitag vorbörslich um 0,5 %, nachdem Semianalysis seine Prognose gesenkt und vorhergesagt hatte, dass Micron keinen Anteil an der Lieferung von HBM4-Speicher für Nvidias kommende Produktreihe haben wird. 1
Diese Einschätzung hat Gewicht: High-Bandwidth Memory—kurz HBM—ist der gestapelte DRAM direkt neben KI-Prozessoren, der Daten mit Höchstgeschwindigkeit einspeist. Wenn ein Lieferant auf Nvidias Liste steht, kann das jahrelang hohe Stückzahlen und Preismacht bedeuten. Wer leer ausgeht, muss sich um den nächsten Zyklus bemühen.
Investoren verfolgen den breiteren Ausbau der KI-Infrastruktur, wobei Speicherengpässe erneut als entscheidender Engpass auftreten. In diesem Jahr werden große US-Technologiekonzerne voraussichtlich mehr als 630 Milliarden US-Dollar für Rechenzentren und KI-Chips ausgeben. „Das Ausmaß der Ausgaben ist deutlich höher als vom Konsens erwartet“, stellten Analysten von MoffettNathanson fest. 2
Micron sprang im vorbörslichen Handel um etwa 4 %, nachdem Amazon sein Investitionsziel von 200 Milliarden US-Dollar für 2026 bekannt gegeben hatte—ein klarer Beweis dafür, dass die Cloud-Expansion nicht nachlässt. Doch diese Rallye verpuffte, sobald die Semianalysis-Notiz die Runde machte, und die Aktie gab nach.
Semianalysis sieht keine „Anzeichen dafür, dass Nvidia Micron HBM4 bestellt“, und geht nun davon aus, dass Nvidia für seinen HBM4-Bedarf bei SK Hynix und Samsung bleibt. Das Unternehmen schätzt, dass SK Hynix etwa 70 % des Anteils erhält, Samsung 30 %, und verweist auf „schlechte Geschwindigkeitsleistung durch die Verwendung eines internen Basis-Die“ als Grund für die frühere Herabstufung.
DigiTimes berichtet, dass Nvidia frühzeitig bei Samsung Electronics sechste Generation High-Bandwidth Memory, also HBM4, angefragt hat, da Chiphersteller mehr Produktion auf HBM umstellen und das knappe Angebot spürbar wird. 3
Laut TechPowerUp plant Nvidia, für seine „Vera Rubin“-Reihe bei SK Hynix und Samsung HBM4 zu bleiben und Micron komplett zu überspringen. 4
Wenn sich diese Prognosen bewahrheiten, wird der Wettbewerb zwischen den drei wichtigsten HBM-Anbietern noch enger. SK Hynix bleibt an der Spitze, Samsung gewinnt etwas mehr Boden, und Micron muss versuchen, neue HBM-Deals zu bekommen oder auf zukünftige Nvidia-Zuteilungen hoffen.
HBM ist kein gewöhnlicher Speichermodul. Stattdessen wird es in Stapeln aufgebaut, die jeweils mit einem logischen „Basis-Die“ verbunden sind, das den Stapel koordiniert und alles mit dem Prozessorpaket verbindet. Die Leistungsgrenze verschiebt sich ständig nach oben, da KI-Chips immer mehr Bandbreite benötigen.
Die Zuteilungen der Lieferanten sind immer im Fluss, da Qualifikationsläufe, Ausbeuten und Zeitpläne jongliert werden; Nvidia schweigt zu Bezugsquellen für alles, was noch nicht breit verfügbar ist. „Der Markt mag einfach nicht die beträchtlichen Summen, die weiterhin in Investitionsausgaben für diese Wachstumsraten gesteckt werden“, sagte Dave Wagner, Portfoliomanager bei Aptus Capital Advisors, und betonte, wie schnell sich die Stimmung bei KI-Investitionen und den Unternehmen, die die Ausrüstung liefern, ändern kann. 5
Micron-Anteilseigner fragen sich, ob das Unternehmen eine bedeutende Position bei HBM4 sichern kann, während Nvidia sich auf die nächste Phase seiner KI-Hardware vorbereitet. Die Sitzung am Freitag machte deutlich – eine einzige Mitteilung eines Lieferanten reichte aus, um ein ansonsten starkes Signal bei der Nachfrage zu übertönen.