Según los informes en profundidad de Bloomberg y el anuncio oficial de Google, Google amplió oficialmente su cartera de chips de IA el 22 de abril: el chip especializado en inferencia Ironwood (TPU de séptima generación) se suministra en forma integral a través de Google Cloud, y al mismo tiempo se puso en marcha la colaboración de próxima generación con cuatro socios: Broadcom, MediaTek, Marvell e Intel. El objetivo es desafiar de forma positiva la posición dominante de Nvidia en el mercado de cómputo de IA mediante una cadena de suministro de chips a medida.
Ironwood: TPU de séptima generación, diseñada por primera vez para inferencia
Ironwood es el producto de séptima generación de la serie TPU de Google y también el primer chip especializado en inferencia bajo la estrategia de “separación entre entrenamiento e inferencia”. Las especificaciones divulgadas por Google: el rendimiento pico por chip es 10 veces el de TPU v5p, con 192GB de memoria HBM3E, un ancho de banda de memoria de 7.2 TB/s; un único superpod puede ampliarse hasta 9,216 chips Ironwood enfriados por líquido, y el cómputo total en FP8 alcanza 42.5 exaflops.
Google afirma oficialmente que Ironwood ya está “disponible en su totalidad para que los clientes de Google Cloud lo usen”. Para este año, el volumen de envíos se prevé en el nivel de “millones de unidades”. Anthropic se ha comprometido a adoptar hasta 1 millón de chips Ironwood TPU; Meta, en cambio, firmó un contrato multianual de “miles de millones de dólares” para usar TPU mediante Google Cloud.
División del trabajo entre cuatro socios: entrenamiento a cargo de Broadcom, inferencia a cargo de MediaTek
La cadena de suministro de chips de próxima generación de Google se divide de manera clara de la siguiente forma:
Socio Código Rol Característica Broadcom Sunfish Entrenamiento especializado Da continuidad a la relación de colaboración existente con TPU y lidera nodos de entrenamiento a gran escala MediaTek (聯發科) Zebrafish Inferencia especializada Afirma que el costo es 20–30% menor que la solución de Broadcom Marvell En negociaciones Unidad de procesamiento de memoria (MPU) + TPU adicional para inferencia Optimización para HBM e inference Intel No divulgado Participación en el diseño para fortalecer la diversificación de la cadena de suministro
Este es el primer modelo en la industria de la IA de “participación en paralelo de cuatro socios, con división explícita entre entrenamiento e inferencia”. Google evita la dependencia estructural de un único proveedor como Nvidia mediante la dispersión del riesgo de IP y la negociación de precios competitiva. El roadmap se extiende hasta finales de 2027 con el TPU v8, que se producirá en el proceso de 2nm de TSMC.
Significado estratégico: no es un solo chip lo que desafía a Nvidia, sino la cadena de suministro
En los últimos tres años, el mercado de chips de IA ha estado casi monopolizado por Nvidia, con una doble muralla defensiva: el ecosistema de software CUDA y los chips H100/GB200. La estrategia de Ironwood de Google y la de los cuatro socios no busca “superar una especificación puntual” como objetivo, sino replicar la lógica de Nvidia en la industria: “plataforma estandarizada + compra de múltiples clientes”, de modo que la TPU no sea solo para uso interno de Google, sino una opción de cómputo comercial que también puedan compartir principales compañías de IA como Anthropic y Meta.
El compromiso de Anthropic de 1 millón de chips TPU es especialmente clave: se trata de la mayor promesa de cómputo de una sola empresa de IA fuera de Nvidia. Además, complementa los acuerdos de 5GW/10 mil millones de AWS en la línea de compromisos de 4/20 de Anthropic y Amazon: por un lado, se vincula a AWS Trainium; por el otro, se vincula a Google TPU. Con la estrategia de “doble chip a medida”, Anthropic reduce la dependencia de Nvidia. Meta, a su vez, es la primera empresa en hacer público que incorpora TPU en sus cargas de trabajo de entrenamiento/inferencia de IA, generando otra señal.
Reacción del mercado y conexión con la industria
Antes de esta revelación, MediaTek ya era considerada como “beneficiaria de chips personalizados de Google”. La exposición del código Zebrafish fue la primera vez que coloca directamente a MediaTek como socio de diseño de chips de inferencia de Google. Esto extiende la narrativa reciente de la “alianza no-Nvidia”, con el enfoque de AMD × GlobalFoundries en fotónica de silicio y Marvell × Google en MPU.
Nvidia todavía cuenta con el soporte de GB200 y la plataforma de próxima generación Rubin en el mismo periodo, pero la combinación de cómputo del lado del cliente está pasando de “todo Nvidia” a un enfoque de tres vías en paralelo: “Nvidia + TPU + AWS Trainium”. Esto también implica que la capacidad de 2nm de TSMC significará que Google, Nvidia, Apple y Amazon estén haciendo fila como grandes clientes, y que la fuerza de negociación sobre el suministro de foundry seguirá aumentando.
Este artículo “Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para enfrentar a Nvidia” apareció por primera vez en Cadena News ABMedia.
Artículos relacionados
Cohere adquiere la firma alemana de IA Aleph Alpha y asegura $600M inversión para la expansión europea
Xpeng, Xiaomi Lead In-Car AI Push at Beijing Auto Show
Ex ingeniero de Seed de ByteDance: la iteración de la IA de ByteDance tarda seis meses frente a los tres meses de Google
El ingeniero de OpenAI Clive Chan cuestiona las recomendaciones de hardware de V4, citando errores y falta de claridad frente a V3
Naver lanza la beta de AI Tab mientras Google Gemini entra en el mercado de búsquedas de Corea del Sur
La contratación de ingeniería en IA en India se dispara un 59,5% y se expande más allá de los centros tecnológicos