Em março de 2026, comprar um pente de DDR5 custa quatro vezes mais do que custava em setembro de 2025. Montar um servidor novo exige negociação com semanas de antecedência. E smartphones que antes saíam por menos de 100 dólares simplesmente não existem mais no mercado.
Tudo isso por causa de uma única força: a demanda insaciável de data centers de inteligência artificial por chips de memória. O que começou como uma pressão de preços no mercado enterprise virou uma crise global que atinge de gamers montando PCs a fabricantes de celulares na Ásia.
O que está acontecendo com a memória global
A indústria de semicondutores vive uma escassez de memória DRAM sem precedentes. Segundo a IDC, os preços de DRAM subiram aproximadamente 90% no primeiro trimestre de 2026 em comparação ao quarto trimestre de 2025. Quando olhamos ano contra ano, a alta chega a 171%, superando até a valorização do ouro no mesmo período.
O dado mais revelador vem da TrendForce: 70% de toda a memória produzida no mundo em 2026 será consumida por data centers. Sobram 30% para dividir entre smartphones, PCs, consoles, IoT e todo o resto da indústria eletrônica. Não surpreende que os preços estejam disparando.
A escassez não é um evento pontual. A Wikipedia já cataloga o fenômeno como a "crise global de memória 2024-2026", e analistas do mercado apontam que a restrição deve persistir até pelo menos o final de 2027.
Três fabricantes, uma decisão: priorizar IA
Para entender a raiz do problema, é preciso olhar para a estrutura do mercado. Três empresas controlam 93% da produção global de DRAM: Samsung, SK Hynix e Micron. Quando essas três tomam a mesma decisão estratégica, o mercado inteiro sente.
E a decisão foi clara: redirecionar capacidade fabril para HBM (High Bandwidth Memory), o tipo de memória que GPUs de IA como as da NVIDIA exigem. HBM oferece margens muito superiores à DRAM convencional, então do ponto de vista de negócio a escolha faz sentido.
A SK Hynix, que liderava o mercado de HBM com mais de 50% de participação em 2025, tem toda a sua produção vendida até o final de 2026. A empresa antecipou em quatro meses a operação da fábrica M15X para tentar aumentar o volume de wafers. A Samsung anunciou um plano de expansão de 50% na capacidade de HBM, elevando a produção para 250 mil wafers por mês até o fim do ano.
E a Micron? Em dezembro de 2025, tomou a decisão mais radical: encerrou a marca Crucial, saindo completamente do mercado de memória para consumidores. A empresa reportou receita recorde de 37,38 bilhões de dólares no ano fiscal 2025, com 56% vindo de data centers. A mensagem foi direta: o consumidor final não é mais prioridade.
O problema é que não dá para simplesmente "ligar" novas fábricas. Construir uma nova unidade de produção de DRAM leva de 2 a 3 anos. As expansões anunciadas por Samsung e SK Hynix só atingem volume de produção relevante em 2028.
O efeito dominó nos preços
Os números são contundentes. No mercado spot, chips DDR5 de 16 GB saltaram de 6,84 dólares em setembro de 2025 para 27,20 dólares em dezembro do mesmo ano. Um aumento de 298% em três meses.
Para o consumidor final, a conta chega assim:
- PCs e notebooks: Lenovo, Dell, HP, Acer e ASUS confirmaram aumentos de 15% a 20% nos preços. O custo da memória agora representa 35% do material de um PC, contra 15-18% no trimestre anterior
- Smartphones: o preço médio global subiu 14%, atingindo o recorde de 523 dólares. Aparelhos abaixo de 100 dólares deixaram de ser viáveis economicamente
- Servidores: lead times que eram de dias agora são de semanas. Contratos com preços fixos estão sendo renegociados ou simplesmente cancelados
A IDC projeta que o mercado de PCs vai encolher entre 9% e 11% em 2026. O de smartphones deve recuar 12,9%, para 1,12 bilhão de unidades, o menor volume em mais de uma década. A TechCrunch chamou de "a maior queda em remessas de smartphones em mais de uma década".
O Tom's Hardware reportou algo que parece absurdo: o mercado de DRAM chegou a operar com "preços por hora" para pedidos menores, com pequenas e médias empresas disputando lotes residuais em tempo real.
Quem consegue se proteger (e quem não consegue)
Nem todos sofrem da mesma forma. Apple e Samsung (a divisão de dispositivos) vinham protegidas por contratos de fornecimento de longo prazo, embora reportagens recentes indiquem que a Apple aceitou reajustes de até 100% na renegociação com a Samsung no início de 2026. Mesmo assim, reservas de caixa bilionárias e poder de negociação permitem absorver o choque sem repassar integralmente ao consumidor.
Do outro lado estão fabricantes como TCL, Transsion, Realme e Xiaomi. Operando com margens finas e sem poder de negociação comparável, não têm opção além de repassar o custo diretamente. A Qualcomm publicou um alerta formal em fevereiro de 2026 sobre o impacto da crise de RAM no mercado de smartphones.
Para empresas de software que dependem de infraestrutura cloud, a situação também preocupa. Provedores como AWS, Azure e GCP ainda não anunciaram aumentos massivos de preço, mas o custo de provisionar instâncias com muita memória já subiu. Quem opera clusters com uso intensivo de RAM está sentindo no bolso.
O que muda para quem desenvolve software
Aqui é onde a crise de hardware cruza com o dia a dia de quem escreve código. Existem impactos práticos em várias camadas.
Infraestrutura mais cara
Se você gerencia infraestrutura, o custo de memória em servidores bare-metal subiu significativamente. Para quem usa cloud, instâncias memory-optimized (como as famílias r na AWS ou E na Azure) estão com preços em alta. Rever o sizing de instâncias é uma ação imediata que faz sentido.
Um exemplo concreto: auditar o consumo real de memória das aplicações com ferramentas como htop, docker stats ou métricas de APM pode revelar que muitas instâncias estão superprovisionadas.
# Verificar consumo de memória por container
docker stats --no-stream --format "table {{.Name}}\t{{.MemUsage}}\t{{.MemPerc}}"
Aplicações que desperdiçam memória
Com RAM barata, era fácil ignorar vazamentos de memória ou caches sem limite. Agora, cada megabyte tem um custo real mais alto. Algumas práticas que ganham relevância:
- Definir limites explícitos em caches in-memory (Redis, Memcached ou caches de aplicação)
- Usar connection pooling adequado em vez de manter conexões ociosas
- Em aplicações Node.js, monitorar o heap com
--max-old-space-sizee investigar vazamentos com--inspect
// Exemplo: limitando cache in-memory com LRU
import { LRUCache } from 'lru-cache';
const cache = new LRUCache<string, Buffer>({
maxSize: 50 * 1024 * 1024, // 50 MB máximo
sizeCalculation: (value) => value.byteLength,
ttl: 1000 * 60 * 5, // 5 minutos
});
IA on-device compete com o próprio app
Um ponto que poucos estão discutindo: a tendência de rodar modelos de IA localmente (on-device) nos smartphones e PCs exige RAM adicional. PCs com recursos de IA precisam de no mínimo 16 GB, e muitos fabricantes já empurram para 32 GB. Mas com memória cara, os OEMs podem optar por reduzir a RAM para manter preços, o que significa que seu app vai competir por recursos com small language models rodando em background.
Para desenvolvedores mobile, isso reforça a importância de monitorar memória com ferramentas nativas (Instruments no iOS, Android Profiler) e tratar memory warnings de forma agressiva.
Quando a situação melhora
A resposta curta: não tão cedo.
As expansões de capacidade de Samsung e SK Hynix só atingem volume relevante em 2028. Novas fábricas estão em construção, mas o ciclo de implantação de uma fab de semicondutores é de 2 a 3 anos.
A TrendForce indica que os preços devem permanecer elevados ao longo de todo 2026 e 2027. Uma normalização parcial é possível em 2027, mas depende de um reequilíbrio entre oferta e demanda que, por enquanto, não está no horizonte. Os hyperscalers (Microsoft, Google, Meta, Amazon) continuam expandindo infraestrutura de IA, e cada novo cluster de GPUs consome quantidades massivas de HBM.
O cenário base é que a memória deixou de ser commodity barata. A realocação estrutural da produção para o mercado enterprise pode ser permanente, ao menos até que a capacidade total de fabricação cresça o suficiente para atender ambos os lados.
Conclusão
A escassez de RAM em 2026 não é uma oscilação cíclica de mercado. É o resultado de uma mudança estrutural: três fabricantes decidiram que vender memória para data centers de IA é mais lucrativo do que vender para você e para mim. A Micron encerrou uma marca de 29 anos para formalizar essa escolha.
Para quem desenvolve software, o efeito prático é que memória ficou cara e vai continuar cara. Isso muda decisões de infraestrutura, muda o sizing de instâncias cloud, e deveria mudar a forma como tratamos consumo de memória nas aplicações. A era de "joga mais RAM que resolve" acabou, pelo menos por enquanto.
Se você está provisionando infraestrutura ou planejando hardware para 2026-2027, o momento de travar contratos e auditar consumo é agora. A normalização, se vier, só chega em 2028.
Referências pesquisadas nesta publicação
- IDC - Global Memory Shortage Crisis: Market Analysis and the Potential Impact on the Smartphone and PC Markets in 2026
- Tom's Hardware - Data centers will consume 70 percent of memory chips made in 2026
- Northeastern University - What is causing the RAM shortage? Chip and supply chain experts explain
- TrendForce - Memory Price Outlook for 1Q26 Sharply Upgraded
- CNBC - Micron stops selling memory to consumers as demand spikes from AI chips
- SK hynix - Completes World-First HBM4 Development
- TrendForce - Samsung Reportedly Plans 50% HBM Capacity Surge in 2026
- TechCrunch - Memory shortage could cause the biggest dip in smartphone shipments in over a decade
- Tom's Hardware - AI memory crunch forces DRAM market into hourly pricing model
- IEEE Spectrum - AI Boom Fuels DRAM Shortage and Price Surge