Com base em reportagens aprofundadas da Bloomberg e em anúncios oficiais da Google, a Google expandiu oficialmente o seu portefólio de chips de IA próprios no dia 22 de abril: o Ironwood, dedicado à inferência (7.ª geração de TPU), está agora em fornecimento total no Google Cloud, e em simultâneo foi lançada a colaboração de próxima geração com quatro parceiros — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, através de uma cadeia de fornecimento de chips personalizados, desafiar de forma positiva a posição dominante da Nvidia no mercado de capacidade de computação em IA.
Ironwood: 7.ª geração de TPU, primeira vez concebida especificamente para inferência
O Ironwood é o produto de 7.ª geração da série de TPU da Google e o primeiro chip dedicado à inferência no âmbito da estratégia de “separação treino/inferência”. As especificações divulgadas pela Google: desempenho de ponta por chip 10 vezes superior ao do TPU v5p, com 192GB de memória HBM3E, largura de banda de memória até 7,2 TB/s, um superpod pode ser expandido até 9.216 unidades de Ironwood arrefecidas a líquido e, no total, a capacidade de computação FP8 atinge 42,5 exaflops.
A Google diz oficialmente que o Ironwood já está “totalmente disponível para clientes do Google Cloud” e que, este ano, as remessas deverão atingir o patamar de “um milhão de unidades”. A Anthropic já se comprometeu a adotar até 1 milhão de Ironwood TPU, enquanto a Meta assinou um acordo multianual de “dezenas de milhares de milhões de dólares” para utilizar TPU através do Google Cloud.
Repartição entre os quatro parceiros: treino fica com a Broadcom, inferência fica com a MediaTek
A cadeia de fornecimento de chips de próxima geração da Google tem a seguinte divisão clara:
Parceiro Código Papel Característica Broadcom Sunfish Treino dedicado Dá continuidade à relação de colaboração existente com TPU, lidera nós de treino de grande escala MediaTek (联发科) Zebrafish Inferência dedicada Afirma ser 20–30% mais barato em custos do que a solução da Broadcom Marvell Em negociação Unidade de processamento de memória (MPU) + TPU de inferência adicional para otimizações de HBM e inference Intel Não divulgado Participação no desenho para reforçar a dispersão da cadeia de fornecimento
Trata-se da primeira vez, na indústria de IA, que se vê o modelo de “quatro parceiros em paralelo, divisão de trabalho explícita entre treino e inferência”. A Google, ao dispersar riscos de IP e ao negociar preços perante a concorrência, evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap estende-se até ao final de 2027, com o TPU v8, a ser produzido no processo de 2nm da TSMC.
Significado estratégico: o que a Google está a desafiar não é um único chip, é a cadeia de fornecimento
Nos últimos três anos, o mercado de chips de IA tem sido quase monopolizado pela Nvidia, com a ecossistema de software CUDA e a dupla muralha formada pelos chips H100/GB200. A estratégia do Ironwood da Google e dos quatro parceiros não tem como objetivo “ultrapassar um requisito específico” em termos isolados, mas sim replicar a lógica da Nvidia na indústria — “plataforma padronizada + compras por múltiplos clientes” — para que as TPU não sejam apenas para uso próprio da Google, mas uma opção de capacidade de computação comercial que pode ser partilhada por principais empresas de IA como Anthropic e Meta.
O significado do compromisso da Anthropic de 1 milhão de TPU é particularmente crítico: trata-se do maior compromisso de capacidade de computação de uma única empresa de IA fora da Nvidia. E complementa-se com os compromissos da Anthropic 4/20 e com a Amazon ao alcançar 5GW/100 mil milhões de dólares em AWS — de um lado, a ligação ao AWS Trainium; do outro, a ligação às TPU da Google. A Anthropic reduz a dependência da Nvidia com uma estratégia de “dois chips personalizados”. A Meta, por sua vez, é a primeira empresa a incluir publicamente as TPU nos seus próprios workloads de treino/inferência de IA, criando mais um sinal.
Reação do mercado e ligação com a indústria
A MediaTek já era vista, antes desta divulgação, como “beneficiária de chips personalizados da Google”, e a exposição do código Zebrafish é a primeira vez que a MediaTek é listada diretamente como parceira de conceção de chips de inferência da Google. Esta extensão segue a linha narrativa recente da “aliança não-Nvidia”: AMD × GlobalFoundries para fotónica em silício e Marvell × Google para MPU.
A Nvidia, no mesmo período, ainda tem suporte do GB200 e da plataforma Rubin de próxima geração, mas a combinação de capacidade do lado do cliente está a passar de “total Nvidia” para a operação em três vias “Nvidia + TPU + AWS Trainium”. Isto também significa que, para a capacidade da TSMC em 2nm, Google, Nvidia, Apple e Amazon estão todas em fila, elevando continuamente o poder negocial do produtor por contrato de foundry.
Este artigo “Google Ironwood TPU: 10 vezes o desempenho + quatro parceiros a enfrentar a Nvidia” apareceu pela primeira vez em 鏈新聞 ABMedia.
Related Articles
Engenheiro da OpenAI Clive Chan ContestA as Recomendações de Hardware da V4, Apontando Erros e Ambiguidade Face à V3
Naver Launches AI Tab Beta as Google Gemini Enters South Korea Search Market
As Contratações de Engenharia em IA na Índia Disparam 59,5%, Expandem Além dos Centros Tecnológicos
Banco da Commonwealth reduz 120 empregos no meio da expansão da IA
Razões para a seleção do treino XAI pela Cursor: o poder de computação ficou bloqueado, a SpaceX detém mais 60 mil milhões de dólares em opções de compra
Avaliação no mercado secundário da Anthropic ultrapassa 1 bilião de dólares: Forge Global supera a OpenAI em 880 mil milhões