Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para competir contra Nvidia

Según los informes en profundidad de Bloomberg y el anuncio oficial de Google, Google amplió oficialmente su cartera de chips de IA el 22 de abril: el chip especializado en inferencia Ironwood (TPU de séptima generación) se suministra en forma integral a través de Google Cloud, y al mismo tiempo se puso en marcha la colaboración de próxima generación con cuatro socios: Broadcom, MediaTek, Marvell e Intel. El objetivo es desafiar de forma positiva la posición dominante de Nvidia en el mercado de cómputo de IA mediante una cadena de suministro de chips a medida.

Ironwood: TPU de séptima generación, diseñada por primera vez para inferencia

Ironwood es el producto de séptima generación de la serie TPU de Google y también el primer chip especializado en inferencia bajo la estrategia de “separación entre entrenamiento e inferencia”. Las especificaciones divulgadas por Google: el rendimiento pico por chip es 10 veces el de TPU v5p, con 192GB de memoria HBM3E, un ancho de banda de memoria de 7.2 TB/s; un único superpod puede ampliarse hasta 9,216 chips Ironwood enfriados por líquido, y el cómputo total en FP8 alcanza 42.5 exaflops.

Google afirma oficialmente que Ironwood ya está “disponible en su totalidad para que los clientes de Google Cloud lo usen”. Para este año, el volumen de envíos se prevé en el nivel de “millones de unidades”. Anthropic se ha comprometido a adoptar hasta 1 millón de chips Ironwood TPU; Meta, en cambio, firmó un contrato multianual de “miles de millones de dólares” para usar TPU mediante Google Cloud.

División del trabajo entre cuatro socios: entrenamiento a cargo de Broadcom, inferencia a cargo de MediaTek

La cadena de suministro de chips de próxima generación de Google se divide de manera clara de la siguiente forma:

Socio Código Rol Característica Broadcom Sunfish Entrenamiento especializado Da continuidad a la relación de colaboración existente con TPU y lidera nodos de entrenamiento a gran escala MediaTek (聯發科) Zebrafish Inferencia especializada Afirma que el costo es 20–30% menor que la solución de Broadcom Marvell En negociaciones Unidad de procesamiento de memoria (MPU) + TPU adicional para inferencia Optimización para HBM e inference Intel No divulgado Participación en el diseño para fortalecer la diversificación de la cadena de suministro

Este es el primer modelo en la industria de la IA de “participación en paralelo de cuatro socios, con división explícita entre entrenamiento e inferencia”. Google evita la dependencia estructural de un único proveedor como Nvidia mediante la dispersión del riesgo de IP y la negociación de precios competitiva. El roadmap se extiende hasta finales de 2027 con el TPU v8, que se producirá en el proceso de 2nm de TSMC.

Significado estratégico: no es un solo chip lo que desafía a Nvidia, sino la cadena de suministro

En los últimos tres años, el mercado de chips de IA ha estado casi monopolizado por Nvidia, con una doble muralla defensiva: el ecosistema de software CUDA y los chips H100/GB200. La estrategia de Ironwood de Google y la de los cuatro socios no busca “superar una especificación puntual” como objetivo, sino replicar la lógica de Nvidia en la industria: “plataforma estandarizada + compra de múltiples clientes”, de modo que la TPU no sea solo para uso interno de Google, sino una opción de cómputo comercial que también puedan compartir principales compañías de IA como Anthropic y Meta.

El compromiso de Anthropic de 1 millón de chips TPU es especialmente clave: se trata de la mayor promesa de cómputo de una sola empresa de IA fuera de Nvidia. Además, complementa los acuerdos de 5GW/10 mil millones de AWS en la línea de compromisos de 4/20 de Anthropic y Amazon: por un lado, se vincula a AWS Trainium; por el otro, se vincula a Google TPU. Con la estrategia de “doble chip a medida”, Anthropic reduce la dependencia de Nvidia. Meta, a su vez, es la primera empresa en hacer público que incorpora TPU en sus cargas de trabajo de entrenamiento/inferencia de IA, generando otra señal.

Reacción del mercado y conexión con la industria

Antes de esta revelación, MediaTek ya era considerada como “beneficiaria de chips personalizados de Google”. La exposición del código Zebrafish fue la primera vez que coloca directamente a MediaTek como socio de diseño de chips de inferencia de Google. Esto extiende la narrativa reciente de la “alianza no-Nvidia”, con el enfoque de AMD × GlobalFoundries en fotónica de silicio y Marvell × Google en MPU.

Nvidia todavía cuenta con el soporte de GB200 y la plataforma de próxima generación Rubin en el mismo periodo, pero la combinación de cómputo del lado del cliente está pasando de “todo Nvidia” a un enfoque de tres vías en paralelo: “Nvidia + TPU + AWS Trainium”. Esto también implica que la capacidad de 2nm de TSMC significará que Google, Nvidia, Apple y Amazon estén haciendo fila como grandes clientes, y que la fuerza de negociación sobre el suministro de foundry seguirá aumentando.

Este artículo “Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para enfrentar a Nvidia” apareció por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Cohere adquiere la firma alemana de IA Aleph Alpha y asegura $600M inversión para la expansión europea

Mensaje de Gate News, 24 de abril: la empresa canadiense de IA Cohere anunció planes para adquirir la firma alemana de IA Aleph Alpha para reforzar su presencia en Europa. Schwarz Group, un patrocinador de Aleph Alpha, planea invertir $600 millones en la ronda de financiación Serie E de Cohere. Se espera que la ronda de financiación cierre en 202

GateNewsHace27m

Xpeng, Xiaomi Lead In-Car AI Push at Beijing Auto Show

Gate News message, April 24 — Chinese automakers showcased advanced in-car AI systems at the Beijing Auto Show on April 24, as the country accelerates its AI Plus strategy and seeks greater independence from foreign semiconductors. Xpeng demonstrated voice-controlled parking that allows drivers to

GateNewshace1h

Ex ingeniero de Seed de ByteDance: la iteración de la IA de ByteDance tarda seis meses frente a los tres meses de Google

Mensaje de Gate News, 24 de abril — Zhang Chi, ex ingeniero del equipo Seed de ByteDance y profesor asistente actual en la Universidad de Pekín, reveló en el podcast "Into Asia" que ByteDance requiere aproximadamente seis meses para completar un ciclo completo de entrenamiento de preentrenamiento de modelos de lenguaje a gran escala (pretraining

GateNewshace1h

El ingeniero de OpenAI Clive Chan cuestiona las recomendaciones de hardware de V4, citando errores y falta de claridad frente a V3

Mensaje de Gate News, 24 de abril — El ingeniero de OpenAI, Clive Chan, ha presentado objeciones detalladas al capítulo de recomendaciones de hardware en el informe técnico V4, calificándolo de "sorprendentemente mediocre y propenso a errores" en comparación con la versión V3 aclamada. La guía de hardware de V3, que incluyó sesiones de Q&A

GateNewshace1h

Naver lanza la beta de AI Tab mientras Google Gemini entra en el mercado de búsquedas de Corea del Sur

Mensaje de Gate News, 24 de abril — Naver anunció el inicio de una beta cerrada para AI Tab, su nueva función de búsqueda conversacional, tras el lanzamiento de Gemini en Chrome por parte de Google en Corea del Sur. AI Tab aparecerá junto a las pestañas de búsqueda existentes de Naver, ofreciendo a los usuarios un espacio dedicado para consultas conversacionales

GateNewshace2h

La contratación de ingeniería en IA en India se dispara un 59,5% y se expande más allá de los centros tecnológicos

El Informe sobre el Mercado Laboral de la IA de LinkedIn 2026, publicado el 24 de abril, descubrió que la contratación de ingeniería de IA en India aumentó un 59,5% interanual, marcando el ritmo más rápido entre los mercados estudiados por la plataforma. El crecimiento estuvo impulsado por una expansión de la demanda más allá de los centros tecnológicos establecidos. Ciudades, incluidas

CryptoFrontierhace2h
Comentar
0/400
Sin comentarios