Google Ironwood TPU: desempenho 10x + quatro parceiros a enfrentar a Nvidia

Com base em reportagens aprofundadas da Bloomberg e em anúncios oficiais da Google, a Google expandiu oficialmente o seu portefólio de chips de IA próprios no dia 22 de abril: o Ironwood, dedicado à inferência (7.ª geração de TPU), está agora em fornecimento total no Google Cloud, e em simultâneo foi lançada a colaboração de próxima geração com quatro parceiros — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, através de uma cadeia de fornecimento de chips personalizados, desafiar de forma positiva a posição dominante da Nvidia no mercado de capacidade de computação em IA.

Ironwood: 7.ª geração de TPU, primeira vez concebida especificamente para inferência

O Ironwood é o produto de 7.ª geração da série de TPU da Google e o primeiro chip dedicado à inferência no âmbito da estratégia de “separação treino/inferência”. As especificações divulgadas pela Google: desempenho de ponta por chip 10 vezes superior ao do TPU v5p, com 192GB de memória HBM3E, largura de banda de memória até 7,2 TB/s, um superpod pode ser expandido até 9.216 unidades de Ironwood arrefecidas a líquido e, no total, a capacidade de computação FP8 atinge 42,5 exaflops.

A Google diz oficialmente que o Ironwood já está “totalmente disponível para clientes do Google Cloud” e que, este ano, as remessas deverão atingir o patamar de “um milhão de unidades”. A Anthropic já se comprometeu a adotar até 1 milhão de Ironwood TPU, enquanto a Meta assinou um acordo multianual de “dezenas de milhares de milhões de dólares” para utilizar TPU através do Google Cloud.

Repartição entre os quatro parceiros: treino fica com a Broadcom, inferência fica com a MediaTek

A cadeia de fornecimento de chips de próxima geração da Google tem a seguinte divisão clara:

Parceiro Código Papel Característica Broadcom Sunfish Treino dedicado Dá continuidade à relação de colaboração existente com TPU, lidera nós de treino de grande escala MediaTek (联发科) Zebrafish Inferência dedicada Afirma ser 20–30% mais barato em custos do que a solução da Broadcom Marvell Em negociação Unidade de processamento de memória (MPU) + TPU de inferência adicional para otimizações de HBM e inference Intel Não divulgado Participação no desenho para reforçar a dispersão da cadeia de fornecimento

Trata-se da primeira vez, na indústria de IA, que se vê o modelo de “quatro parceiros em paralelo, divisão de trabalho explícita entre treino e inferência”. A Google, ao dispersar riscos de IP e ao negociar preços perante a concorrência, evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap estende-se até ao final de 2027, com o TPU v8, a ser produzido no processo de 2nm da TSMC.

Significado estratégico: o que a Google está a desafiar não é um único chip, é a cadeia de fornecimento

Nos últimos três anos, o mercado de chips de IA tem sido quase monopolizado pela Nvidia, com a ecossistema de software CUDA e a dupla muralha formada pelos chips H100/GB200. A estratégia do Ironwood da Google e dos quatro parceiros não tem como objetivo “ultrapassar um requisito específico” em termos isolados, mas sim replicar a lógica da Nvidia na indústria — “plataforma padronizada + compras por múltiplos clientes” — para que as TPU não sejam apenas para uso próprio da Google, mas uma opção de capacidade de computação comercial que pode ser partilhada por principais empresas de IA como Anthropic e Meta.

O significado do compromisso da Anthropic de 1 milhão de TPU é particularmente crítico: trata-se do maior compromisso de capacidade de computação de uma única empresa de IA fora da Nvidia. E complementa-se com os compromissos da Anthropic 4/20 e com a Amazon ao alcançar 5GW/100 mil milhões de dólares em AWS — de um lado, a ligação ao AWS Trainium; do outro, a ligação às TPU da Google. A Anthropic reduz a dependência da Nvidia com uma estratégia de “dois chips personalizados”. A Meta, por sua vez, é a primeira empresa a incluir publicamente as TPU nos seus próprios workloads de treino/inferência de IA, criando mais um sinal.

Reação do mercado e ligação com a indústria

A MediaTek já era vista, antes desta divulgação, como “beneficiária de chips personalizados da Google”, e a exposição do código Zebrafish é a primeira vez que a MediaTek é listada diretamente como parceira de conceção de chips de inferência da Google. Esta extensão segue a linha narrativa recente da “aliança não-Nvidia”: AMD × GlobalFoundries para fotónica em silício e Marvell × Google para MPU.

A Nvidia, no mesmo período, ainda tem suporte do GB200 e da plataforma Rubin de próxima geração, mas a combinação de capacidade do lado do cliente está a passar de “total Nvidia” para a operação em três vias “Nvidia + TPU + AWS Trainium”. Isto também significa que, para a capacidade da TSMC em 2nm, Google, Nvidia, Apple e Amazon estão todas em fila, elevando continuamente o poder negocial do produtor por contrato de foundry.

Este artigo “Google Ironwood TPU: 10 vezes o desempenho + quatro parceiros a enfrentar a Nvidia” apareceu pela primeira vez em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Engenheiro da OpenAI Clive Chan ContestA as Recomendações de Hardware da V4, Apontando Erros e Ambiguidade Face à V3

Mensagem do Gate News, 24 de Abril — O engenheiro da OpenAI Clive Chan apresentou objecções detalhadas ao capítulo de recomendações de hardware no relatório técnico V4, chamando-lhe "surpreendentemente medíocre e propenso a erros" em comparação com a aclamada versão V3. A orientação de hardware da V3, que incluía sessões de Q&A

GateNews22m atrás

Naver Launches AI Tab Beta as Google Gemini Enters South Korea Search Market

Gate News message, April 24 — Naver announced the start of a closed beta for AI Tab, its new conversational search feature, following Google's launch of Gemini in Chrome in South Korea. AI Tab will appear alongside Naver's existing search tabs, offering users a dedicated space for conversational

GateNews34m atrás

As Contratações de Engenharia em IA na Índia Disparam 59,5%, Expandem Além dos Centros Tecnológicos

O Relatório do Mercado de Trabalho de IA 2026 da LinkedIn, publicado a 24 de abril, revelou que a contratação de engenharia de IA na Índia aumentou 59,5% em termos anuais, assinalando o ritmo mais acelerado entre os mercados estudados pela plataforma. O crescimento foi impulsionado pela procura a alastrar para além dos centros tecnológicos estabelecidos. Cidades incluindo

CryptoFrontier54m atrás

Banco da Commonwealth reduz 120 empregos no meio da expansão da IA

O Commonwealth Bank of Australia anunciou que vai cortar aproximadamente 120 postos de trabalho à medida que o maior banco do país revê funções e aumenta a sua utilização de inteligência artificial, de acordo com a Bloomberg. Os cortes incluem 43 funções na Bankwest, no oeste da Austrália, com seis cargos afetados pela automação. Isto é

CryptoFrontier1h atrás

Razões para a seleção do treino XAI pela Cursor: o poder de computação ficou bloqueado, a SpaceX detém mais 60 mil milhões de dólares em opções de compra

O anúncio da Anysphere afirma que a Cursor irá, em conjunto com a xAI, treinar novos modelos com a infraestrutura Colossus para ultrapassar o estrangulamento de capacidade computacional; a SpaceX apresentou uma opção de compra de 60 mil milhões de dólares (aquisição total até 2026), caso não seja possível, pagará cerca de 10 mil milhões de dólares como compensação de colaboração. Estas duas transacções decorrem em simultâneo, reconfigurando quem consegue treinar a Cursor e quem consegue comprar a Cursor; a Cursor continua a permitir vários backends de modelos, mas a orientação a longo prazo depende de saber se a SpaceX exercerá o direito de compra.

ChainNewsAbmedia1h atrás

Avaliação no mercado secundário da Anthropic ultrapassa 1 bilião de dólares: Forge Global supera a OpenAI em 880 mil milhões

De acordo com a reportagem da Decrypt, a avaliação em segunda ronda da Forge Global da Anthropic é de cerca de 1 bilião de dólares, a da OpenAI cerca de 880 mil milhões de dólares, com a primeira inversão de liderança a surgir no mercado secundário. O ARR da Anthropic aumentou de cerca de 9 mil milhões até ao final de 2025 para cerca de 30 mil milhões em março de 2026; crescimento de 233% em três meses, impulsionando a avaliação privada. As avaliações em mercado secundário diferem das rondas de financiamento em mercado primário, reflectindo a confiança na saída; no futuro, continuam a ser observados quatro canais — tecnologia, políticas, negócios e narrativa.

ChainNewsAbmedia1h atrás
Comentar
0/400
Nenhum comentário