Google busca ampliar el ecosistema de chips de IA con Marvell mientras se intensifica la competencia con Nvidia

Según se informa, el Google de Alphabet Inc. estaría en conversaciones con Marvell Technology para desarrollar dos chips nuevos diseñados para mejorar la forma en que se ejecutan los modelos de inteligencia artificial.
Resumen

  • Google está en conversaciones con Marvell para desarrollar dos chips enfocados en IA, incluida una unidad de procesamiento de memoria y un TPU de próxima generación, para mejorar la eficiencia de los modelos.
  • El impulso forma parte del esfuerzo de Google por posicionar sus TPU como una alternativa a las GPU de Nvidia, mientras amplía las asociaciones con Intel y Broadcom.
  • La medida llega junto con el lanzamiento de Gemma 4, ya que Google alinea sus modelos de IA y su pila de hardware en medio de una competencia cada vez más intensa en la computación de IA.

De acuerdo con un informe de The Information, citando a personas familiarizadas con el asunto, uno de los chips propuestos podría ser una unidad de procesamiento de memoria diseñada para funcionar junto con las unidades de procesamiento tensorial de Google, o TPU. Se espera que el segundo chip sea un nuevo TPU adaptado específicamente para ejecutar cargas de trabajo de IA de manera más eficiente.

La medida forma parte del esfuerzo de Google por posicionar sus chips internos como una alternativa a las GPU de Nvidia. La adopción de TPU ha estado contribuyendo al crecimiento de los ingresos de Google Cloud, ya que la empresa busca mostrar retornos por su gasto en infraestructura de IA.

El informe añadió que Google planea completar el diseño del chip centrado en memoria para el próximo año antes de pasar a las pruebas de producción. Al mismo tiempo, ha ampliado asociaciones con fabricantes de chips como Intel y Broadcom para respaldar la creciente demanda de infraestructura de IA.

Competencia creciente en hardware de IA

A medida que Google acelera el desarrollo de sus aceleradores de IA, podría comenzar a desafiar el liderazgo de larga data de Nvidia en computación de alto rendimiento.

NVIDIA, por ejemplo, está avanzando su propia gama de chips de inferencia de IA, incluidos diseños que incorporan tecnología de Groq. La entrada de otro competidor a gran escala podría intensificar la carrera en hardware de IA y cambiar la forma en que las empresas obtienen potencia de cómputo para modelos.

Es probable que los inversores busquen mayor claridad cuando Google publique sus resultados del primer trimestre el 29 de abril. Se espera que el comunicado de resultados ofrezca señales sobre el desempeño en la nube, las tendencias publicitarias y qué tan agresivamente planea la empresa invertir en IA y semiconductores en los próximos trimestres.

Los avances de los modelos de IA respaldan el empuje de hardware

Las conversaciones más recientes de chips de Google llegan mientras la empresa continúa ampliando sus capacidades de modelos de IA. A principios de este mes, la compañía presentó Gemma 4, una nueva familia de modelos abierta creada para el razonamiento avanzado y flujos de trabajo tipo agentes.

Gemma 4 está disponible en cuatro tamaños y está diseñada para manejar con mayor eficacia lógica de múltiples pasos y la resolución de problemas estructurada. También ha entregado resultados mejorados en puntos de referencia relacionados con tareas de matemáticas y seguimiento de instrucciones.

Los modelos incluyen funciones como llamada de funciones nativa, salidas JSON estructuradas e instrucciones a nivel de sistema, lo que permite a los desarrolladores construir sistemas autónomos que pueden conectarse con APIs y herramientas externas. También pueden generar código sin conexión, convirtiendo las máquinas locales en asistentes de codificación de IA capaces.

Juntas, las mejoras en el modelo y los planes de desarrollo de chips muestran cómo Google está alineando su pila de software y hardware a medida que la competencia en el ámbito de la IA continúa intensificándose.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El gobierno de Trump anuncia un plan para combatir la extracción y el refinado de IA, acusando a las empresas chinas de robar de forma sistemática la capacidad de los modelos

La Oficina de Políticas Tecnológicas de la Casa Blanca (OSTP), el asistente del presidente Michael J. Kratsios, emitió el 23 de abril un comunicado oficial en el que indicó que la administración de Trump tiene información que muestra que entidades extranjeras (principalmente ubicadas en China) están llevando a cabo deliberadamente ataques contra grandes empresas estadounidenses de inteligencia artificial mediante la extracción sistemática de las capacidades de los modelos de IA de Estados Unidos a través de “decenas de miles de cuentas de agentes” y sistemas de tecnología de jailbreak, y que también publicó cuatro medidas de respuesta.

MarketWhisperHace18m

DeepSeek lanza una versión preliminar de código abierto V4, puntuación técnica 3206 superando a GPT-5.4

DeepSeek 推estamente lanzó oficialmente la serie de vista previa V4 el 24 de abril, con licencia MIT y código abierto, y los pesos del modelo ya se han publicado en Hugging Face y ModelScope. Según el informe técnico de DeepSeek V4, V4-Pro-Max (modo de máxima fuerza de inferencia) obtuvo 3206 puntos en el benchmark de Codeforces, superando a GPT-5.4.

MarketWhisperHace34m

Cambricon Completa la Adaptación del Día 0 de DeepSeek-V4, Marcando un Hito para el Ecosistema de Chips de IA de China

Mensaje de Gate News, 24 de abril — Cambricon anunció hoy que ha completado la adaptación del Día 0 de DeepSeek-V4, el último modelo de lenguaje grande de DeepSeek, utilizando su ecosistema propietario de software NeuWare y el framework vLLM. El código de adaptación se ha publicado simultáneamente como código abierto, marcando el

GateNewsHace51m

Tencent lanza en código abierto Hy3, versión preliminar; las pruebas de referencia del código mejoran un 40% con respecto a la generación anterior

Tencent el 23 de abril lanzó oficialmente como código abierto el modelo de lenguaje grande Hy3 en versión preliminar en las plataformas GitHub, Hugging Face y ModelScope, y también ofrece servicios de API de pago a través de Tencent Cloud. Según informó Decrypt el 24 de abril, la versión preliminar de Hy3 inició el entrenamiento a finales de enero y, para la fecha de publicación, habían transcurrido menos de tres meses.

MarketWhisperHace58m

Inversiones de cartera de FTX por valor de 158 billones de won si no hubiera quebrado

FTX, el exchange centralizado de criptomonedas que se acogió al Capítulo 11 de protección por bancarrota en noviembre de 2022 debido a la falta de liquidez y a la salida de capitales, habría mantenido inversiones valoradas en aproximadamente 158.796 billones de wones si no hubiera colapsado, según un análisis citado por Park

CryptoFrontierhace1h

Xiaomi Revela Detalles del Entrenamiento de MiMo-V2-Pro: Parámetros de Modelo 1T, Miles de GPUs Desplegadas

Mensaje de Gate News, 24 de abril: la jefa del equipo de modelos de lenguaje de Xiaomi, Luo Fuli, reveló en una entrevista en profundidad que el modelo MiMo-V2-Pro cuenta con un total de 1 billón de parámetros y que requirió miles de GPUs para el entrenamiento. Señaló que la escala de 1T representa el umbral mínimo para lograr

GateNewshace1h
Comentar
0/400
Sin comentarios