Em 2 de março de 2026, a NVIDIA anunciou US$ 4 bilhões em investimentos divididos entre duas empresas de fotônica: US$ 2 bilhões na Coherent e US$ 2 bilhões na Lumentum. O dinheiro vai para P&D e manufatura de componentes ópticos nos Estados Unidos: lasers, fotodiodos e integração de óptica diretamente nos chips de rede.

Não é um investimento em GPUs. É um investimento na infraestrutura que conecta GPUs entre si.

Quem trabalha com cloud e infraestrutura de IA sabe que escalar um cluster de treinamento não se resume a empilhar placas. A rede entre elas precisa acompanhar — e o cobre está batendo no teto. Esse artigo explica o que está acontecendo, como a óptica co-empacotada resolve o problema e o que chega ao mercado ainda em 2026.

O problema que US$ 4 bilhões tentam resolver

Data centers de IA funcionam diferente dos tradicionais. Em um cluster de treinamento de LLMs, milhares de GPUs trocam dados entre si a cada passo de computação. A velocidade com que esses dados trafegam define se o modelo treina em dias ou em semanas.

Hoje, a maior parte dessa comunicação usa cabos de cobre. Cobre funciona bem até certo ponto. Quando as taxas de transferência chegam a 1,6 Tbps por porta, os cabos precisam ser tão curtos e grossos que se tornam inviáveis para racks de alta densidade.

A perda de sinal em conexões de cobre a 200 Gb/s por canal chega a 22 dB. Com fibra óptica, essa perda cai para cerca de 4 dB. O IEEE Spectrum publicou uma análise direta sobre o tema: "AI data centers demand more than copper can deliver".

O gargalo não é processamento. É comunicação entre processadores.

O que é óptica co-empacotada

Nos data centers atuais, switches de rede usam módulos ópticos plugáveis, transceivers que ficam na borda do equipamento e convertem sinais elétricos em luz. O sinal nasce no chip de switching, percorre uma trilha elétrica até a face plate do equipamento, e só lá é convertido para óptico. Esse caminho elétrico desperdiça energia e limita bandwidth.

A óptica co-empacotada (CPO, de co-packaged optics) muda essa arquitetura. O motor óptico é integrado ao mesmo package do chip ASIC de switching. A fibra se conecta diretamente ao motor óptico que está ao lado do processador. O caminho elétrico entre chip e conversão óptica cai de centímetros para milímetros.

O resultado prático, segundo o blog técnico da NVIDIA:

  • Consumo por porta cai de 30W para aproximadamente 9W, uma redução de 3,5x
  • Perda de sinal elétrico cai de 22 dB para 4 dB em canais de 200 Gb/s
  • Resiliência do sistema sobe em até 10x, porque módulos plugáveis (que falham com frequência) saem da equação
  • Deployment fica 1,3x mais rápido por simplificar a montagem física

Esses são specs publicados pela NVIDIA para produtos com datas de disponibilidade comercial anunciadas. Benchmarks independentes ainda não estão disponíveis.

US$ 2 bi na Coherent, US$ 2 bi na Lumentum

A NVIDIA dividiu o investimento em dois acordos simétricos, ambos anunciados no mesmo dia.

A Coherent recebe US$ 2 bilhões para expandir manufatura nos EUA e desenvolver lasers e produtos de networking óptico de próxima geração. O acordo inclui um compromisso de compra multibilionário de longo prazo e direitos de acesso à capacidade futura. Jim Anderson, CEO da Coherent, mencionou que a parceria amplia uma relação de mais de 20 anos entre as empresas.

A Lumentum recebe os mesmos US$ 2 bilhões, direcionados para P&D e construção de uma nova fábrica nos Estados Unidos. O foco são componentes de laser avançados para silicon photonics, a base tecnológica da CPO.

Dois detalhes que importam: ambos os acordos são não-exclusivos. Coherent e Lumentum continuam livres para vender componentes a qualquer cliente. A NVIDIA não está comprando exclusividade tecnológica — está garantindo capacidade de produção em escala.

Jensen Huang enquadrou o investimento no conceito de "fábricas de IA": data centers que geram tokens de inteligência em tempo real. Para que essas fábricas funcionem, a interconexão óptica entre GPUs precisa existir em volume industrial.

O que chega ao mercado em 2026

A NVIDIA já tem produtos CPO com datas de entrega definidas:

O Quantum-X InfiniBand Photonics tem disponibilidade para o início de 2026. São 115 Tb/s de capacidade de switching distribuídos em 144 portas de 800 Gb/s cada. Para clusters InfiniBand existentes, é um upgrade de interconexão que mantém a topologia mas reduz consumo e aumenta confiabilidade.

O Spectrum-X Ethernet Photonics chega em duas versões no segundo semestre de 2026. O SN6810 entrega 102,4 Tb/s com 128 portas de 800 Gb/s. O SN6800, o topo de linha, entrega 409,6 Tb/s com 512 portas de 800 Gb/s, tudo refrigerado a líquido.

Para colocar em perspectiva: 409,6 Tb/s em um único switch significa que um rack de rede pode alimentar centenas de GPUs com bandwidth suficiente para treinamento distribuído sem gargalo de comunicação.

A Ethernet Alliance apresentou demos de AI-Scale Ethernet na OFC 2026, realizada em março, reforçando que a Ethernet está competindo com InfiniBand no espaço de treinamento de IA. A CPO chega nos dois protocolos ao mesmo tempo.

O que muda para quem opera infraestrutura

Se você gerencia clusters de IA ou planeja arquiteturas de rede para workloads de machine learning, três coisas mudam concretamente.

Primeiro, custo energético da rede cai. Redes de interconexão consomem uma fatia significativa do total de energia de um data center de IA. Com CPO cortando o consumo por porta em 3,5x, o custo operacional de manter clusters grandes diminui. Para quem paga a conta de energia, isso é direto no orçamento.

Segundo, menos manutenção de componentes ópticos. Transceivers plugáveis são uma das maiores fontes de falhas em redes de data center. Eliminar esses módulos significa menos chamados, menos downtime e menos estoque de peças de reposição.

Terceiro, o planejamento de capacidade muda. Switches com 512 portas de 800 Gb/s permitem topologias de rede mais densas com menos camadas. Arquiteturas fat-tree e spine-leaf que antes exigiam múltiplas camadas de switches podem ser simplificadas.

A CPO também traz trade-offs: módulos ópticos integrados não são substituíveis individualmente, o que complica manutenção em campo, e a padronização entre vendors de CPO ainda está em evolução.

O mercado de interconexão óptica para data centers de IA movimentou US$ 9,94 bilhões em 2025 e projeta US$ 31 bilhões até 2033, segundo a DataM Intelligence. A CPO deixou de ser pesquisa acadêmica e virou produto com data no calendário.

Conclusão

A NVIDIA gastou US$ 4 bilhões para resolver um problema que mais GPUs não resolvem: mover dados entre elas rápido o suficiente. A óptica co-empacotada elimina o gargalo do cobre, corta consumo energético e entrega densidades de bandwidth que viabilizam a próxima escala de clusters de IA.

O stack de inteligência artificial não termina no chip. A rede entre os chips é tão crítica quanto os chips em si. Os investimentos de março de 2026 são a NVIDIA admitindo isso com o talão de cheques.

Referências pesquisadas nesta publicação