Según se informa, el Google de Alphabet Inc. estaría en conversaciones con Marvell Technology para desarrollar dos chips nuevos diseñados para mejorar la forma en que se ejecutan los modelos de inteligencia artificial.
Resumen
De acuerdo con un informe de The Information, citando a personas familiarizadas con el asunto, uno de los chips propuestos podría ser una unidad de procesamiento de memoria diseñada para funcionar junto con las unidades de procesamiento tensorial de Google, o TPU. Se espera que el segundo chip sea un nuevo TPU adaptado específicamente para ejecutar cargas de trabajo de IA de manera más eficiente.
La medida forma parte del esfuerzo de Google por posicionar sus chips internos como una alternativa a las GPU de Nvidia. La adopción de TPU ha estado contribuyendo al crecimiento de los ingresos de Google Cloud, ya que la empresa busca mostrar retornos por su gasto en infraestructura de IA.
El informe añadió que Google planea completar el diseño del chip centrado en memoria para el próximo año antes de pasar a las pruebas de producción. Al mismo tiempo, ha ampliado asociaciones con fabricantes de chips como Intel y Broadcom para respaldar la creciente demanda de infraestructura de IA.
A medida que Google acelera el desarrollo de sus aceleradores de IA, podría comenzar a desafiar el liderazgo de larga data de Nvidia en computación de alto rendimiento.
NVIDIA, por ejemplo, está avanzando su propia gama de chips de inferencia de IA, incluidos diseños que incorporan tecnología de Groq. La entrada de otro competidor a gran escala podría intensificar la carrera en hardware de IA y cambiar la forma en que las empresas obtienen potencia de cómputo para modelos.
Es probable que los inversores busquen mayor claridad cuando Google publique sus resultados del primer trimestre el 29 de abril. Se espera que el comunicado de resultados ofrezca señales sobre el desempeño en la nube, las tendencias publicitarias y qué tan agresivamente planea la empresa invertir en IA y semiconductores en los próximos trimestres.
Las conversaciones más recientes de chips de Google llegan mientras la empresa continúa ampliando sus capacidades de modelos de IA. A principios de este mes, la compañía presentó Gemma 4, una nueva familia de modelos abierta creada para el razonamiento avanzado y flujos de trabajo tipo agentes.
Gemma 4 está disponible en cuatro tamaños y está diseñada para manejar con mayor eficacia lógica de múltiples pasos y la resolución de problemas estructurada. También ha entregado resultados mejorados en puntos de referencia relacionados con tareas de matemáticas y seguimiento de instrucciones.
Los modelos incluyen funciones como llamada de funciones nativa, salidas JSON estructuradas e instrucciones a nivel de sistema, lo que permite a los desarrolladores construir sistemas autónomos que pueden conectarse con APIs y herramientas externas. También pueden generar código sin conexión, convirtiendo las máquinas locales en asistentes de codificación de IA capaces.
Juntas, las mejoras en el modelo y los planes de desarrollo de chips muestran cómo Google está alineando su pila de software y hardware a medida que la competencia en el ámbito de la IA continúa intensificándose.
Artículos relacionados
El gobierno de Trump anuncia un plan para combatir la extracción y el refinado de IA, acusando a las empresas chinas de robar de forma sistemática la capacidad de los modelos
DeepSeek lanza una versión preliminar de código abierto V4, puntuación técnica 3206 superando a GPT-5.4
Cambricon Completa la Adaptación del Día 0 de DeepSeek-V4, Marcando un Hito para el Ecosistema de Chips de IA de China
Tencent lanza en código abierto Hy3, versión preliminar; las pruebas de referencia del código mejoran un 40% con respecto a la generación anterior
Inversiones de cartera de FTX por valor de 158 billones de won si no hubiera quebrado
Xiaomi Revela Detalles del Entrenamiento de MiMo-V2-Pro: Parámetros de Modelo 1T, Miles de GPUs Desplegadas