NVIDIA GTC: A grande festa da IA, cheia de expectativas, mas a sair decepcionado?

16 de março de 2026, Jensen Huang, fundador e CEO da NVIDIA, fez um discurso principal na GTC 2026, abordando temas centrais como o 20º aniversário da plataforma CUDA, o ponto de inflexão na inferência e a explosão na demanda por poder de processamento, a arquitetura do sistema Vera Rubin, a integração do Groq, a revolução do agente OpenClaw e a IA física e robótica.

  1. Pontos principais da GTC2026

1) Perspectivas de receita para centros de dados: A receita acumulada de centros de dados de 2025 a 2027 deve atingir 1 trilhão de dólares (ano passado, na GTC, foi previsto 500 bilhões de dólares para 2025-2026), atendendo às expectativas. O mercado já elevou sua previsão para acima de 1 trilhão, e há maior expectativa de que a empresa forneça informações claras sobre pedidos e outros detalhes.

2) Desempenho e custo: Em termos de tokens/watt (taxa de processamento) e velocidade de tokens (inteligência), a NVIDIA lidera globalmente. O custo por token da NVIDIA é o mais baixo do mundo.

3) Centros de dados como “fábricas de tokens”: Cada fábrica, limitada por potência (exemplo, 1GW), precisa gerenciar a taxa de produção de tokens e sua velocidade.

Tokens serão subdivididos como commodities: camada gratuita (alto throughput, baixa velocidade) -> camada de 3 dólares/milhão de tokens -> camada de 6 dólares/milhão -> camada de 45 dólares/milhão -> camada de 150 dólares/milhão (nível superior, baixa latência, alta largura de banda).

Por exemplo, um centro de dados de 1GW, com 25% de potência alocada para cada camada: Grace Blackwell pode gerar 5 vezes mais receita que Hopper, Vera Rubin pode aumentar ainda mais esse valor em 5 vezes.

4) Vera Rubin: Baseado em seis tipos de chips anteriores, foi adicionado o Groq 3 LPU.

① Vera Rubin: resfriamento líquido 100% (água quente a 45°C), sem cabos, instalação reduzida de dois dias para duas horas;

② CPO Spectrum-X switch: produção em massa, desenvolvido em parceria com TSMC;

③ CPU: único CPU de centro de dados com LPDDR5, vendido separadamente, com potencial de negócios de bilhões de dólares;

Vera CPU Tray para cargas de trabalho Agentic, com 8 processadores Vera, cada um com 88 núcleos, suportando 8 canais de memória LPDDR5x, com largura de banda de 1,2TB/s por socket. Inclui 2 DPU BF4 na placa.

④ Vera Rubin: já em operação na Microsoft Azure (primeiro rack). A cadeia de suprimentos da NVIDIA consegue produzir milhares de sistemas semanalmente, com capacidade de AI de vários GW por mês;

⑤ Rubin Ultra: Rubin é um rack deslizante horizontal, enquanto Rubin Ultra é inserido verticalmente em novos racks Kyber, com 144 GPUs em um domínio NVLink, substituindo cabos de cobre por switches NVLink.

5) Groq 3 LPU (novo chip): Uso combinado de Groq e HBM, conforme esperado.

Tecnologia proveniente da aquisição do time Groq, o Groq LP30 é fabricado pela Samsung, com previsão de entrega no terceiro trimestre.

Um chip Groq de 500MB SRAM versus um Rubin de 288GB, o Groq sozinho não suporta modelos grandes de parâmetros e cache KV.

Solução: software Dynamo, que divide o processo de inferência em etapas:

  1. Pré-carregamento: também chamado de Prefill, onde o modelo processa em lote as entradas do usuário, feito na Vera Rubin;

  2. Atenção na decodificação: calcula a relação entre tokens atuais e históricos (KV Cache), trabalho que envolve cálculo e armazenamento, realizado na Vera Rubin, com leitura frequente da memória HBM;

  3. Rede feedforward na decodificação: após determinar o contexto na atenção, a rede gera a distribuição de probabilidade do próximo token com base no token anterior, produzindo a saída (“fala”).

Cada camada lê os pesos do modelo, uma leitura por token. Os parâmetros estão na HBM, mas o processamento fica ocioso esperando os dados, formando o verdadeiro gargalo da “parede de memória”.

Ao dividir a decodificação em duas fases por software, mantém-se a “memória de contexto” na HBM, enquanto a maior parte dos parâmetros é transferida para SRAM do Groq, que pode ler esses pesos com baixa latência, resolvendo o problema de lentidão na inferência.

A conexão entre Rubin e Groq é feita por Ethernet, com RDMA especial, reduzindo a latência de comunicação entre os chips pela metade.

6) Feynman: Novo GPU + LP40 (LPU) + Rosa CPU (nomeada Rosalind) + BlueField-5 + CX10.

Escalonamento de cabos de cobre Kyber + escalonamento CPO Kyber (suporte simultâneo a cabos de cobre e CPO). Mesmo na fase Feynman, será suportada a combinação de ambos.

Embora a NVIDIA prefira o esquema CPO, os clientes tendem a usar cabos de cobre ao máximo antes de migrar para CPO, por facilidade de implantação e manutenção.

7) Outras informações:

① Data center espacial: para problemas de energia, NVIDIA anuncia Vera Rubin Space-1, com planos de colocar centros de dados no espaço (precisa resolver problemas de radiação e dissipação de calor, pois no espaço não há condução ou convecção, apenas radiação);

② OpenClaw: cada SaaS se tornará GaaS (Agent-as-a-Service).

Sistema de agentes acessa informações sensíveis, executa códigos e comunica-se externamente — requer segurança empresarial. NVIDIA e Peter Steinberger, fundador do OpenClaw, lançaram o NemoClaw (referência de segurança empresarial do OpenClaw), com tecnologia OpenShell, incluindo barreiras de rede (network guardrail) e roteadores de privacidade (privacy router), conectando os motores de estratégia de SaaS;

③ IA física e robótica: na direção de veículos autônomos, BYD, Geely, Hyundai, Nissan e outros fabricantes entram na Robtaxi, em parceria com Uber. Quanto a robôs, KUKA, ABB e outros fabricantes, além de plataformas de drones e robótica.

De modo geral, nesta apresentação, além de esclarecer o uso combinado de cabos de cobre e CPO, a principal novidade foi a inclusão do LPU no servidor, uma opção adquirida com a Groq. Após a compra da Groq, o mercado já tinha expectativas altas; inclusive, a previsão de receita de 1 trilhão de dólares em três anos já é superada na prática.

De modo geral, a evolução dos produtos NVIDIA mostra que, nos últimos anos, o foco não foi mais na inovação de microarquitetura, mas na integração e conexão — de Hopper para Blackwell, resolvendo questões de combinação e conectividade. A NVIDIA mudou de vender chips para vender sistemas e serviços.

De Blackwell para Rubin, as principais melhorias foram a introdução do DPU (chip NAND) e, agora, o LPU (SRAM), adquiridos recentemente, que enfrentam a questão da parede de memória na entrada na era da inferência e agentes de IA.

  1. Estado atual da NVIDIA: expectativas fracas na conferência, necessidade de “novas histórias de crescimento”

O desempenho das ações da NVIDIA nos últimos seis meses tem oscilado entre 170 e 200 dólares. Mesmo com grandes fabricantes aumentando seus investimentos de capital e resultados acima do esperado, o preço das ações não rompeu essa faixa, devido a preocupações do mercado:

a) Continuidade do investimento de grandes empresas: Meta, Google e outros aumentaram seus investimentos em 2026, com os quatro principais provedores de nuvem prevendo mais de 660 bilhões de dólares em gastos, crescimento de 60%. Mas a proporção desses gastos na receita ainda é relativamente alta.

Por exemplo, a Meta espera gastar entre 1150 e 1350 bilhões de dólares em 2026, o que representa mais de 50% da receita anual, com espaço limitado para crescimento adicional. Mesmo com previsões de aumento de investimentos, o mercado permanece preocupado com a sustentabilidade desse crescimento.

b) Participação no mercado de chips de IA: Atualmente, a NVIDIA mantém mais de 75% do mercado, com preços elevados e uma estrutura de quase monopólio, levando os provedores de nuvem a buscar alternativas.

Fora do Google, Broadcom (AVGO) já conquistou grandes pedidos de Anthropic, OpenAI e outros, e vários clientes estão desenvolvendo suas próprias soluções. Mesmo com novos produtos Rubin, o mercado espera uma redução gradual na participação da NVIDIA no mercado de chips de IA.

3) Competitividade dos produtos: O TPUv7 do Google, com desempenho próximo ao B200 da NVIDIA (produção prevista para o quarto trimestre de 2024), está cerca de um ano atrás da NVIDIA.

Na série Blackwell, a NVIDIA introduziu o formato NVFP4, que dobra o desempenho de inferência em FP8. Mas o FP8 já atende à maior parte do mercado atual, e o TPUv7 é uma alternativa viável.

Para enfrentar a concorrência, a NVIDIA investe estrategicamente e amplia sua capacidade de processamento, garantindo o controle da cadeia de suprimentos, incluindo investimentos de 30 bilhões de dólares na OpenAI e 10 bilhões na Anthropic, além de fornecer milhões de GPUs para o novo laboratório de IA da Meta, com alguns contratos com preços mais baixos para garantir demanda.

Diante dessas preocupações, a avaliação da NVIDIA está relativamente baixa. Segundo projeções, com receita de 1,15 trilhão de dólares até 2027 (acima da previsão de 1 trilhão), a capitalização de mercado de 4,4 trilhões de dólares corresponde a um PE de cerca de 13 vezes para 2028, assumindo crescimento composto de 64% ao ano e margem de lucro de 72%.

Apesar de resultados trimestrais acima do esperado, o preço das ações não subiu, pois o mercado já precificou as receitas de 2027, e há receios de que, com o aumento de gastos de nuvem acima de 50%, o espaço para crescimento adicional seja limitado.

Na visão do mercado, mesmo que os clientes mantenham altos investimentos, a receita da NVIDIA proveniente de nuvem pode se estabilizar, levando a uma avaliação mais baixa para além de 2027. Assim, a relação PE de 13x para 2027 lucros não atrai muito interesse de investidores.

Com base na GTC, a previsão de receita de mais de 1 trilhão de dólares até 2027 já foi superada pelo mercado. A maior parte do foco da conferência foi na apresentação de produtos e estratégias, com impacto maior na cadeia de suprimentos (CPO e cabos de cobre ainda em uso, LPU e HBM dividindo tarefas). Poucas informações novas sobre o crescimento da própria NVIDIA.

Para elevar novamente o PE, além de uma maior adoção de IA em larga escala e mais rápida, será necessário um novo “curva de crescimento”, como “Physic AI” ou “poder de cálculo no espaço”.

Fonte: Dolphin Research

Aviso de risco e isenção de responsabilidade

O mercado é volátil, invista com cautela. Este artigo não constitui recomendação de investimento pessoal, nem leva em conta objetivos, situação financeira ou necessidades específicas de cada usuário. Cada um deve avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com sua situação. Investimentos são de responsabilidade do investidor.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar