NOVA YORK, 6 de fevereiro de 2026, 16:33 (EST)
- As ações da Micron caíram antes da abertura do mercado, após a Semianalysis reduzir drasticamente sua previsão de participação da Micron no HBM4 da Nvidia para zero.
- Estimativas de empresas de pesquisa apontam que a divisão do fornecimento de HBM4 da Nvidia será de aproximadamente 70% para a SK Hynix e 30% para a Samsung.
- A Nvidia está pressionando a Samsung por entregas antecipadas de HBM4, informou a DigiTimes, com a escassez de memória no horizonte.
A Micron Technology caiu 0,5% antes da abertura do mercado na sexta-feira, após a Semianalysis cortar sua previsão, prevendo que a Micron não terá participação no fornecimento de memória HBM4 para a próxima linha de produtos da Nvidia. 1
Essa previsão tem peso: a memória de alta largura de banda—HBM, na sigla em inglês—é o DRAM empilhado ao lado dos processadores de IA, fornecendo dados em altíssima velocidade. Se um fornecedor entra na lista da Nvidia, isso pode significar anos de forte volume e poder de precificação. Ficar de fora significa correr atrás no próximo ciclo.
Investidores estão acompanhando o avanço da infraestrutura de IA, com a escassez de memória ressurgindo como uma restrição importante. Este ano, grandes empresas de tecnologia dos EUA devem gastar mais de US$ 630 bilhões em data centers e chips de IA. “A magnitude do investimento é materialmente maior do que o consenso esperava”, observaram analistas da MoffettNathanson. 2
A Micron subiu cerca de 4% no pré-mercado após a Amazon anunciar sua meta de investimento de US$ 200 bilhões para 2026—uma evidência clara de que a expansão da nuvem não está desacelerando. Mas esse rali perdeu força assim que a nota da Semianalysis começou a circular, e a ação recuou.
A Semianalysis não está vendo “indícios de que a Nvidia esteja encomendando HBM4 da Micron” e agora aposta que a Nvidia continuará com a SK Hynix e a Samsung para suas necessidades de HBM4. A empresa estima que a SK Hynix ficará com cerca de 70% da participação, a Samsung com 30%, apontando para o “desempenho de velocidade ruim devido ao uso de um die base interno” como fator para sua revisão anterior.
A DigiTimes está informando que a Nvidia fez um pedido antecipado à Samsung Electronics para a sexta geração de memória de alta largura de banda, ou HBM4, à medida que os fabricantes de chips direcionam mais produção para HBM e a oferta apertada começa a impactar. 3
Segundo a TechPowerUp, a Nvidia planeja continuar com SK Hynix e Samsung HBM4 para sua linha “Vera Rubin”, deixando a Micron totalmente de fora. 4
Se essas projeções se confirmarem, a competição entre os três principais fornecedores de HBM ficará ainda mais acirrada. A SK Hynix continua na liderança, a Samsung ganha um pouco mais de espaço e a Micron fica buscando fechar novos acordos de HBM ou torcendo por futuras alocações da Nvidia.
HBM não é uma memória comum de commodity. Em vez disso, ela é construída em pilhas, cada uma conectada a um “base die” lógico que coordena a pilha e liga tudo ao pacote do processador. O teto de desempenho continua subindo, com chips de IA constantemente famintos por mais largura de banda.
As alocações dos fornecedores estão sempre em fluxo, à medida que execuções de qualificação, rendimentos e cronogramas são ajustados; a Nvidia permanece em silêncio sobre a origem de qualquer coisa que ainda não esteja amplamente disponível. “O mercado simplesmente não gosta da quantidade substancial de dinheiro que continua sendo investida em capex para essas taxas de crescimento”, disse Dave Wagner, gestor de portfólio da Aptus Capital Advisors, destacando como o humor pode mudar rapidamente em relação aos gastos com IA e às empresas que fornecem os equipamentos. 5
Os acionistas da Micron ficam se perguntando se a empresa conseguirá garantir uma posição significativa no HBM4, já que a Nvidia se prepara para sua próxima fase de hardware de IA. A sessão de sexta-feira deixou claro—uma única leitura de um fornecedor foi suficiente para abafar um sinal de demanda que, de outra forma, seria forte.