NEW YORK, 6 febbraio 2026, 16:33 (EST)
- Le azioni Micron sono scese prima dell’apertura dopo che Semianalysis ha abbassato la sua previsione per la quota HBM4 di Micron su Nvidia fino a zero.
- Le stime delle società di ricerca indicano che la suddivisione della fornitura di HBM4 per Nvidia è circa 70% per SK Hynix e 30% per Samsung.
- Secondo DigiTimes, Nvidia sta sollecitando Samsung per spedizioni anticipate di HBM4, con carenze di memoria all’orizzonte.
Micron Technology è scesa dello 0,5% prima dell’apertura venerdì dopo che Semianalysis ha tagliato le sue previsioni, prevedendo che Micron non avrà alcuna quota nella fornitura di memoria HBM4 per la prossima gamma di Nvidia. 1
Questa previsione ha peso: la memoria ad alta larghezza di banda—HBM in breve—è la DRAM impilata proprio accanto ai processori AI, che trasmette dati alla massima velocità. Se un fornitore entra nella lista di Nvidia, questo può significare anni di forti volumi e potere sui prezzi. Restare fuori significa rincorrere il prossimo ciclo.
Gli investitori stanno monitorando la spinta più ampia all’infrastruttura AI, con le carenze di memoria che riemergono come vincolo chiave. Quest’anno, le principali aziende tecnologiche statunitensi sono sulla buona strada per spendere oltre 630 miliardi di dollari in data center e chip AI. “L’entità della spesa è materialmente superiore a quanto previsto dal consenso,” hanno osservato gli analisti di MoffettNathanson. 2
Micron è salita di circa il 4% nelle ore pre-market dopo che Amazon ha annunciato il suo obiettivo di spesa in conto capitale di 200 miliardi di dollari per il 2026—una chiara prova che l’espansione del cloud non sta rallentando. Ma quel rally si è esaurito una volta che la nota di Semianalysis ha iniziato a circolare, e il titolo è arretrato.
Semianalysis non vede “indicazioni che Nvidia ordini HBM4 da Micron” e ora scommette che Nvidia rimarrà con SK Hynix e Samsung per le sue esigenze HBM4. La società stima che SK Hynix prenderà circa il 70% della quota, Samsung il 30%, indicando le “scarse prestazioni di velocità dovute all’uso di un base die interno” come fattore del precedente downgrade.
Secondo DigiTimes, Nvidia ha già contattato Samsung Electronics per la memoria ad alta larghezza di banda di sesta generazione, ovvero HBM4, mentre i produttori di chip destinano più produzione all’HBM e la stretta sull’offerta inizia a farsi sentire. 3
Secondo TechPowerUp, Nvidia prevede di affidarsi a SK Hynix e Samsung HBM4 per la sua gamma “Vera Rubin”, saltando completamente Micron. 4
Se queste proiezioni si avverano, la competizione tra i tre principali fornitori di HBM si farà ancora più serrata. SK Hynix rimane in testa, Samsung guadagna un po’ di terreno, e Micron si ritrova a cercare nuovi accordi HBM o a sperare in future assegnazioni da parte di Nvidia.
L’HBM non è una memoria standard di tipo commodity. Al contrario, è costruita in pile, ciascuna collegata a un “base die” logico che coordina la pila e collega tutto al package del processore. Il limite delle prestazioni continua a spostarsi verso l’alto, con i chip AI costantemente affamati di maggiore larghezza di banda.
Le assegnazioni dei fornitori sono sempre in evoluzione mentre si bilanciano test di qualificazione, rese e tempistiche; Nvidia rimane silenziosa sulle fonti per tutto ciò che non è ancora ampiamente distribuito. “Al mercato semplicemente non piace la quantità sostanziale di denaro che continua a essere investita in capex per questi tassi di crescita,” ha detto Dave Wagner, gestore di portafoglio presso Aptus Capital Advisors, sottolineando quanto rapidamente possa cambiare l’umore sugli investimenti AI e sulle aziende che forniscono l’attrezzatura. 5
I detentori di Micron si chiedono se l’azienda riuscirà a garantirsi una posizione significativa nell’HBM4 mentre Nvidia si prepara alla prossima fase dell’hardware AI. La sessione di venerdì lo ha reso chiaro: una sola lettura da parte di un fornitore è bastata a soffocare un segnale altrimenti forte sulla domanda.