Dois com 20 bilhões de dólares: OpenAI e Nvidia travam uma "guerra de raciocínio"

NVIDIA e OpenAI investem cada uma 20 mil milhões de dólares no mercado de chips de IA, Cerebras apresenta pedido de IPO avaliado em 35 mil milhões de dólares. Esta guerra silenciosa pela futura dominação do poder computacional de IA está a moldar o panorama do mercado tecnológico, avaliado em centenas de bilhões de dólares. Este artigo é uma compilação do Wall Street Journal, organizada pelo PANews.
(Prévia: Os resultados financeiros da NVIDIA crescem 114% acima do esperado, por que razão Jensen Huang não teme o impacto da DeepSeek?)
(Complemento: The Economist declara que 2025 será a era dos “Agentes de IA”, mas há três dificuldades a considerar)

Índice deste artigo

Alternar

  • O que é a inferência, por que 2026 não será mais o ano do “treinamento”
  • O problema da NVIDIA: chips projetados para treinamento, naturalmente não aptos para inferência
  • Os 20 mil milhões da NVIDIA: uma carta de reconhecimento por trás da maior aquisição da história
  • Os 20 mil milhões da OpenAI: comprar chips é superficial, o investimento acionário é o verdadeiro ponto
  • Cerebras faz IPO hoje, o que é que estás a comprar

Em dezembro de 2025, a NVIDIA silenciosamente gastou 20 mil milhões de dólares na aquisição de uma empresa de chips de IA chamada Groq.

Em 17 de abril de 2026, a OpenAI anunciou que iria comprar mais de 20 mil milhões de dólares em chips de uma outra empresa de chips de IA, a Cerebras. No mesmo dia, a Cerebras apresentou oficialmente o seu pedido de IPO na NASDAQ, com uma avaliação alvo de 35 mil milhões de dólares.

Duas transações, quase com o mesmo valor. Uma é uma aquisição, a outra uma compra. Uma vem do maior vendedor de chips de IA do mundo, a outra do maior comprador global de IA.

Não são duas ações independentes, mas dois movimentos simétricos numa mesma guerra. O campo de batalha chama-se: inferência de IA.

A maioria das pessoas não percebe esta guerra. Porque ela não faz barulho, apenas anúncios financeiros e discussões técnicas que circulam entre engenheiros do Vale do Silício. Mas o seu impacto pode ser mais profundo do que qualquer lançamento de IA nos últimos dois anos — porque está a redistribuir o controlo de um mercado tecnológico que quase certamente se tornará o maior da história.

O que é a inferência, por que 2026 não será mais o ano do “treinamento”

Antes de falar sobre os dois investimentos de 20 mil milhões, é preciso entender um contexto: o campo de batalha dos chips de IA está a passar por uma mudança de foco.

Treinamento e inferência são as duas fases do consumo de poder computacional de IA. O treinamento consiste em criar modelos — alimentar uma rede neural com uma quantidade massiva de dados para que ela aprenda uma determinada habilidade. Este processo geralmente ocorre uma única vez ou é atualizado periodicamente. A inferência é usar o modelo — cada vez que um utilizador faz uma pergunta, o ChatGPT fornece uma resposta, que é uma solicitação de inferência.

Em 2023, a maior parte do gasto global em poder de IA foi em treinamento, com a inferência a desempenhar um papel secundário.

Mas essa proporção está a inverter-se rapidamente.

De acordo com dados de mercado da Deloitte e CES 2026, em 2025, a inferência já representava 50% de todo o gasto em poder de IA; em 2026, essa proporção saltará para dois terços. O CEO da Lenovo, Yang Yuanqing, afirmou de forma mais direta na CES: a estrutura de gastos em IA vai passar de “80% em treinamento + 20% em inferência” para “20% em treinamento + 80% em inferência”.

A lógica é simples. O treinamento é um custo único, a inferência é um custo contínuo. O GPT-4 foi treinado uma única vez, mas responde a milhões de utilizadores diariamente — cada conversa é uma solicitação de inferência. Após a implementação em larga escala, o consumo acumulado de inferência supera em muito o de treinamento.

O que isto significa? Que o maior lucro na indústria de IA está a mover-se do “chip de treinamento” para o “chip de inferência”. E esses dois tipos de chips requerem arquiteturas completamente diferentes.

O problema da NVIDIA: chips projetados para treinamento, naturalmente não aptos para inferência

Os chips H100 e H200 da NVIDIA foram feitos para treinar modelos. A sua principal vantagem é uma capacidade de processamento extremamente elevada — o treinamento exige muitas multiplicações de matrizes massivas, e as GPUs são excelentes em “computação paralela de múltiplos núcleos”.

Mas o gargalo na inferência não é o cálculo, é a largura de banda da memória.

Quando um utilizador faz uma pergunta, o chip precisa de transferir os pesos do modelo da memória para a unidade de processamento, antes de gerar uma resposta. Este processo de “transferência” é a verdadeira fonte de latência na inferência. As GPUs da NVIDIA usam memória de alta largura de banda (HBM) externa, e essa transferência inevitavelmente introduz atrasos — para o ChatGPT, que processa milhares de pedidos por segundo, essa latência, multiplicada pelo volume, torna-se um verdadeiro gargalo de desempenho.

Engenheiros internos da OpenAI perceberam este problema ao otimizar o Codex (ferramenta de geração de código), e descobriram que, independentemente dos ajustes, a velocidade de resposta era limitada pela arquitetura das GPUs da NVIDIA.

Em outras palavras, a desvantagem da NVIDIA na inferência não é uma questão de esforço, mas de arquitetura.

A Cerebras adotou uma abordagem completamente diferente com o seu chip WSE-3. Este chip é tão grande que requer encapsulamento a nível de wafer — com uma área de 46.255 mm², maior que a palma da mão — integrando 900 mil núcleos de IA e 44 GB de SRAM ultra-rápida numa única pastilha de silício. A memória está diretamente colocada ao lado do núcleo de processamento, reduzindo a distância de “transferência” de centímetros para micrómetros. Como resultado, a velocidade de inferência é de 15 a 20 vezes superior à do NVIDIA H100.

É importante acrescentar: a NVIDIA não está a ficar de braços cruzados. A sua arquitetura Blackwell (B200), lançada recentemente, oferece uma melhoria de 4 vezes na performance de inferência em relação ao H100, e está a ser amplamente implementada. Mas a Blackwell persegue um objetivo móvel — a Cerebras também está a evoluir, e o mercado de chips está a emergir com concorrentes que já não se limitam à Cerebras.

Os 20 mil milhões da NVIDIA: uma carta de reconhecimento por trás da maior aquisição da história

Em 24 de dezembro de 2025, a NVIDIA anunciou a sua maior aquisição de sempre.

O alvo era a Groq.

A Groq é uma concorrente direta da Cerebras, especializada em chips de arquitetura SRAM otimizados para inferência — chama-se LPU (Unidade de Processamento de Linguagem), e na avaliação pública era considerada a plataforma de inferência mais rápida do mundo. A NVIDIA gastou 20 mil milhões de dólares para adquirir toda a tecnologia central e a equipa fundadora da Groq, incluindo o fundador Jonathan Ross e vários engenheiros de chips de topo provenientes do projeto TPU do Google.

Esta foi a maior aquisição desde a compra da Mellanox por 7 mil milhões de dólares em 2019, triplicando o valor.

Para muitos analistas, a mensagem por trás deste investimento é mais importante do que o valor em si: a NVIDIA acredita que tem uma lacuna estrutural na inferência, e que essa lacuna é grande o suficiente para justificar um investimento de 20 mil milhões de dólares para a preencher.

Se a NVIDIA realmente acreditasse que os seus GPUs são invencíveis na inferência, não precisaria de adquirir a Groq. Este investimento é, na essência, uma encomenda de tecnologia avaliada em 20 mil milhões de dólares — um reconhecimento de que a arquitetura SRAM embutida tem vantagens reais na inferência, e que a NVIDIA, com a sua linha de produtos atual, não consegue cobrir essa vantagem por si só. Assim, pagou o preço mais alto possível para comprar uma tecnologia que ela própria não consegue preencher.

Naturalmente, a narrativa oficial da NVIDIA após a aquisição foi outra: “Integração profunda com a Groq, oferecendo uma solução de inferência mais completa.” A tradução técnica é: “Percebemos que o que temos não é suficiente, por isso comprámos o que é melhor.”

A OpenAI investe 20 mil milhões: comprar chips é superficial, o investimento acionário é o verdadeiro ponto

Voltando à OpenAI.

Em janeiro de 2026, a OpenAI assinou um acordo de três anos para adquirir capacidade de processamento de 10 mil milhões de dólares com a Cerebras — a cobertura mediática focou na “diversificação de fornecedores de chips”, de forma superficial.

Mas os detalhes revelados em 17 de abril mudaram completamente a natureza do negócio:

Primeiro, o valor de compra subiu de 10 para 20 mil milhões de dólares, duplicando o montante.

Segundo, a OpenAI receberá opções de compra de ações na Cerebras, que, com o aumento do volume de compra, podem chegar a deter até 10% do capital total da empresa.

Terceiro, a OpenAI também fornecerá 1 mil milhão de dólares em fundos para a construção de data centers para a Cerebras — ou seja, está a ajudar a construir a fábrica da Cerebras.

Estes três detalhes criam uma imagem completamente diferente: a OpenAI não está apenas a comprar chips, mas a incubar um fornecedor.

Este raciocínio tem precedentes claros na história da tecnologia. Em 2006, a Apple começou a colaborar com a Samsung na personalização de chips da série A, inicialmente com acordos de compra em grande quantidade. Mas, à medida que a Apple aprofundou a sua participação e passou a desenvolver os seus próprios chips M, o controlo da cadeia de fornecimento mudou completamente de mãos — de Intel e Samsung para a própria Apple. O que a OpenAI faz é algo semelhante — mas com uma diferença importante: a Apple sempre deteve o direito de projetar os seus chips desde o início, enquanto a OpenAI ainda é uma compradora, e a Cerebras, após o IPO, continuará a desenvolver-se de forma independente, atendendo a mais clientes. O objetivo final não é que a OpenAI controle totalmente a Cerebras, mas que as duas partes criem uma ecologia de dependência mútua.

Por um lado, ao investir 20 mil milhões e adquirir uma participação acionária na Cerebras, a OpenAI garante o fornecimento contínuo de poder de inferência fora do controle da NVIDIA; por outro lado, a OpenAI está a colaborar com a Broadcom no desenvolvimento de chips ASIC próprios, que deverão estar em produção até ao final de 2026. Caminhando com estes dois passos, o objetivo final é a autonomia em poder computacional.

Cerebras faz IPO hoje, o que estás a comprar

Em 17 de abril, a Cerebras apresentou oficialmente o seu pedido de IPO na NASDAQ, com uma avaliação de 35 mil milhões de dólares, planejando captar 3 mil milhões de dólares.

Este valor de avaliação, que era de 8,1 mil milhões de dólares em setembro de 2025, mais do que quadruplica. Em fevereiro, a Cerebras concluiu uma nova ronda de financiamento, elevando a sua avaliação para 23 mil milhões de dólares, e o objetivo de IPO de 35 mil milhões representa um prémio de 52% sobre esse valor.

Quem conhece a história da Cerebras sabe que esta é a sua segunda tentativa de entrar em bolsa. A primeira foi em 2024, mas foi suspensa devido à dependência excessiva do cliente G42 (Fundo de Investimento em Tecnologia Soberana dos Emirados Árabes), que representava entre 83% e 97% da receita daquele ano. A CFIUS (Comissão de Investimento Estrangeiro nos EUA) interveio por motivos de segurança nacional, levando ao recuo do IPO.

Desta vez, a G42 saiu da lista de acionistas, sendo substituída pela OpenAI.

Em outras palavras, o problema de concentração de clientes da Cerebras ainda não foi resolvido — o nome do maior cliente mudou, mas a dependência do mesmo persiste. Os investidores devem avaliar: esse grande cliente é melhor ou pior? Do ponto de vista de crédito, a OpenAI é claramente melhor do que a G42; do ponto de vista estratégico, a OpenAI também é uma concorrente que está a incubar a Cerebras — uma vez que o seu chip ASIC próprio, se for bem-sucedido, representará uma ameaça real à Cerebras.

Para ser justo, a Cerebras também está a tentar diversificar a sua base de clientes, e o prospecto de IPO deverá listar mais fontes de receita, reduzindo a concentração. Mas, até que a produção do chip ASIC próprio da OpenAI esteja em pleno funcionamento, a resposta a essa questão ainda não está clara.

Ao comprar ações da Cerebras, estás a apostar também: que a OpenAI continuará a preferir a Cerebras, e que o seu chip ASIC próprio não chegará antes do previsto. Ambas as hipóteses não são garantidas.

Claro que há razões para otimismo: se o mercado de inferência crescer conforme previsto, mesmo que a Cerebras ocupe apenas uma pequena fatia desse mercado, os números absolutos serão consideráveis. O problema não é se a Cerebras terá ou não oportunidade, mas se a avaliação de 35 mil milhões já reflete o cenário mais otimista.

Os dois investimentos de 20 mil milhões aparecem de forma simétrica entre o final de 2025 e abril de 2026.

Um vindo do maior vendedor de chips de IA do mundo, adquirindo a tecnologia de um concorrente no mercado de inferência.

Outro vindo do maior comprador de IA do mundo, incubando uma empresa que desafia a NVIDIA na inferência.

A compra de 20 mil milhões pela NVIDIA é uma defesa — usando o preço mais alto para fechar uma lacuna tecnológica que ela própria não consegue preencher.

Os 20 mil milhões da OpenAI são uma ofensiva — gastando dinheiro para construir uma via rápida de inferência que não dependa da NVIDIA, enquanto obtém uma participação acionária numa das estações de pedágio dessa estrada.

Esta guerra não tem tiros, mas o fluxo de capital nunca mente. Os dois investimentos dizem-lhe claramente: o controlo da infraestrutura de inferência de IA está a ser disputado. E esse mercado, em 2026, representará dois terços de todo o poder computacional do setor.

O IPO da Cerebras é o sinal de partida desta guerra.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar