Tras el auge de los agentes inteligentes, la distribución de toda la cadena de valor de la IA ha cambiado.

La narrativa principal de inversión en IA está experimentando una migración estructural. El último estudio de Morgan Stanley señala que, a medida que la IA pasa de “generar contenido” a “ejecutar tareas automáticamente”, la lógica incremental de la próxima fase de infraestructura de IA se expandirá de una “competencia de potencia de chip único” a un “ingeniería de sistemas de pila completa” — GPU sigue siendo el núcleo, pero ya no tendrá el monopolio del presupuesto ni de la prima.

Según la plataforma de trading de追风, el analista del departamento de investigación de Morgan Stanley, Shawn Kim, escribió directamente en el informe: “La IA de agentes inteligentes marca un cambio estructural desde el cálculo hasta la orquestación.” En el flujo de trabajo de agentes inteligentes, el tiempo de orquestación en el lado de la CPU puede representar del 50% al 90% del retraso total, lo que lleva a proyectar un mercado adicional de CPU de entre 32.5 y 60 mil millones de dólares para 2030, elevando el TAM total de servidores CPU a aproximadamente 82.5 a 110 mil millones de dólares.

Mientras tanto, DRAM, placas ABF, fundición de chips, almacenamiento, conectores y componentes pasivos, todos pasarán de ser “papel secundario” a convertirse en nuevos cuellos de botella y fuentes de beneficios. Se estima que en 2030, se generarán adicionalmente entre 15 y 45 exabytes de demanda de DRAM, una escala equivalente al 26% al 77% de la oferta anual de toda la industria en 2027.

Esta evaluación implica para el mercado: los beneficiarios del gasto de capital en IA se expandirán de unos pocos gigantes de chips a toda la cadena de suministro global, y las próximas ganancias excesivas podrían provenir más de aquellos “enlaces habilitadores” que primero se convierten en cuellos de botella en el flujo de trabajo de agentes inteligentes y que son más difíciles de ampliar rápidamente. A medida que los cuellos de botella migran entre diferentes etapas, la distribución del peso en la cadena de valor de la IA también cambiará.

De “generar” a “actuar”: los agentes inteligentes trasladan el cuello de botella del poder de cálculo a la orquestación

La estructura típica del flujo de trabajo de IA generativa es relativamente simple: tras la solicitud del usuario, la CPU realiza un preprocesamiento mínimo, la GPU se encarga de generar tokens, y luego se devuelve el resultado. En toda la cadena, la GPU es la protagonista absoluta, y la CPU solo cumple funciones auxiliares.

La lógica operativa de los agentes inteligentes es completamente diferente. Para completar una tarea, el sistema necesita pasar por planificación, recuperación, llamada a herramientas externas y API, ejecución, reflexión e iteración, además de involucrar colaboración entre múltiples agentes, gestión de permisos, persistencia de estado y programación, que requieren muchas capacidades de “control”. La conclusión central de Morgan Stanley es que: lo que aportan los agentes no es un razonamiento “más pesado” en una sola inferencia, sino más pasos, más estados y más coordinación, trabajos que naturalmente son más adecuados para que los procese la CPU.

Esto conlleva dos consecuencias directas: primero, la proporción de CPU y GPU a nivel de clúster aumentará sistemáticamente; segundo, la DRAM pasará de ser una “opción de capacidad” a convertirse en un “componente central de rendimiento y rendimiento”. Los cuellos de botella en los centros de datos serán cada vez más frecuentes en el ancho de banda de memoria, transferencia de datos, latencia de interconexión y coordinación a nivel de sistema, en lugar de depender únicamente del potencia de cálculo de la GPU.

La proporción de CPU se está reevaluando: de “1:12” a “1:2” e incluso a una inversión

Antes, la descripción típica de la arquitectura de servidores de IA era “una CPU atiende a unas 12 GPU”. Pero el informe indica que, a medida que los flujos de trabajo de agentes se alargan y las llamadas a herramientas y gestión de contexto se vuelven más complejas, esta proporción se está reduciendo rápidamente.

Tomando como ejemplo la hoja de ruta de NVIDIA, las estimaciones actualizadas muestran que, cerca de la plataforma Rubin, la proporción de CPU a GPU ya se acerca a 1:2; y si evoluciona hacia formas más agresivas como Rubin Ultra, incluso podría invertirse, con 2 CPUs por cada GPU. Incluso si solo mejora de 1:12 a 1:8, para implementaciones a gran escala, la demanda absoluta de CPU también aumentará en orden de magnitud.

Si esta tendencia se confirma, la elasticidad de la demanda de CPU pasará de “seguir las entregas de servidores” a “seguir la complejidad de los agentes”, lo que significa que el crecimiento en la demanda de CPU será más estructural y no solo una continuación de los ciclos tradicionales de actualización de hardware.

Reestimación del TAM de CPU: 82.5 a 110 mil millones de dólares en 2030, con incremento por orquestación

Morgan Stanley adopta un enfoque de “capas del sistema”, separando la oportunidad de CPU en IA de la lógica de renovación de servidores tradicionales, y establece tres métricas de análisis independientes:

  • CPU del nodo principal

    Correspondiente a la capa de control del chasis cercana al sistema GPU, asumiendo aproximadamente 5 millones de aceleradores de IA en todo el mundo en 2030, cada uno con 2 CPU de gama alta, y un precio medio de 5000 dólares por CPU, lo que da un TAM de aproximadamente 50 mil millones de dólares.

  • CPU de orquestación

    Cubriendo las nuevas demandas de orquestación de agentes, incluyendo planificación y programación, cadenas de herramientas, pipelines RAG, servicios de memoria KV y vectores, políticas y observabilidad. Se estima que se agregarán entre 10 y 15 millones de CPU, con un ASP de unos 3000 dólares, lo que equivale a un TAM de 30 a 45 mil millones de dólares.

  • Otras CPU

    Incluye nodos de almacenamiento, algunos nodos de red, etc., con un valor estimado de entre 2.5 y 15 mil millones de dólares.

En total, en 2030, el TAM total de CPU para servidores será de aproximadamente 82.5 a 110 mil millones de dólares, con un incremento de unos 32.5 a 60 mil millones de dólares impulsado por agentes inteligentes. La base de toda esta estimación es la proyección de que las ventas de infraestructura de centros de datos de IA en todo el mundo alcanzarán unos 1.2 billones de dólares en 2030 (frente a unos 242 mil millones en 2025).

El informe también presenta un “interruptor de revisión al alza”: si, según NVIDIA, las ventas de infraestructura de IA alcanzan 3 o 5 billones de dólares en 2030, el rango de TAM de CPU se desplazará en conjunto a 2.06 a 2.75 billones de dólares, e incluso a 3.44 a 4.58 billones de dólares. Estas no son predicciones base, pero revelan el efecto amplificador sistemático en la demanda de CPU debido a la expansión de la escala de las “fábricas de IA”.

La memoria pasa de papel secundario a línea principal: demanda adicional de DRAM de 15 a 45 EB en 2030

La verdadera diferenciación de la IA de agentes no solo radica en la capacidad de inferencia, sino en la “memoria y contexto sostenibles”. El contexto continuo, caché KV, estados intermedios en llamadas a herramientas y agentes concurrentes, hacen que la DRAM en el lado de la CPU se convierta en una extensión funcional de HBM.

El modelo de cálculo es directo: la demanda adicional de DRAM es igual al número adicional de CPU de orquestación multiplicado por la configuración media de DRAM por CPU. Las dos hipótesis son: 10 millones de CPU de orquestación adicionales, con aproximadamente 1.5 TB por CPU; y una situación optimista con 15 millones de CPU y 3 TB por CPU. De esto se deduce que en 2030, la IA generará una demanda adicional de entre 15 y 45 EB de DRAM, equivalente al 26% al 77% de la oferta anual de DRAM en 2027.

En cuanto a la dinámica del mercado, el informe también señala una variable estructural: la mayoría de los proveedores de memoria están negociando acuerdos a largo plazo de 3 a 5 años con grandes clientes, lo que podría reducir la pendiente de la bajada de precios y mejorar la visibilidad de beneficios antes de 2027. “La capa de memoria se está convirtiendo en la vía principal de monetización de los sistemas de IA” — la DRAM del host, los chips de interfaz de memoria, la expansión CXL y el almacenamiento en capas SSD/HDD, todos serán puntos de valor más sostenibles.

Las etapas con oferta más ajustada tendrán mayor poder de fijación de precios: placas ABF, fundición y componentes habilitadores

Y las que realmente tienen potencial de beneficios excesivos son aquellos “con capacidad de producción lenta y ciclos de validación largos”. El informe destaca las siguientes cadenas:

Placas ABF: La fase alcista impulsada por IA en las placas ABF podría extenderse hasta finales de esta década, con un riesgo de déficit en 2026-2027. Solo el “aumento del TAM de CPU” podría elevar en un 5% a 10% la demanda de ABF en 2030; en particular, el mercado de placas ABF para CPU en servidores alcanzaría unos 4.7 mil millones de dólares en 2030, con un incremento de unos 1.2 mil millones de dólares impulsado por CPU.

Fundición de chips (especialmente procesos avanzados): El mercado de fundición para CPU se estima en unos 33 mil millones de dólares en 2026 y unos 37 mil millones en 2028. TSMC aumentará su cuota en la fundición de CPU del 70% en 2026 a aproximadamente 75% en 2028; además, se espera que Intel comience a externalizar la fabricación de servidores a TSMC en la segunda mitad de 2027.

BMC y interfaz de memoria: Aspeed se destaca como el principal beneficiario en el segmento de BMC para servidores CPU, con aproximadamente el 70% del mercado, y la nueva plataforma AST2700 puede ofrecer un aumento del ASP del 40% al 50%; Montage se sitúa en la cadena de valor de “interconexión de memoria”, con una participación de ingresos globales de aproximadamente el 36.8%.

Socket de CPU y componentes pasivos: El informe usa a Lotes y FIT como mapeo directo del socket de CPU, estimando que por cada 1 millón de CPU adicionales, los ingresos de Lotes aumentarán en un 0.6% y los de FIT en un 0.2% (solo en función del socket). En cuanto a componentes pasivos, con una simplificación basada en que cada servidor general contiene unos 30 dólares en MLCC, se proyecta un incremento adicional de 500 millones de dólares en demanda de MLCC en 2030, representando aproximadamente el 2% al 3% del mercado global de MLCC en ese momento.

La CPU es la fuente de incremento más clara, pero los “enlaces habilitadores” son más preferidos

El informe reconoce que el crecimiento de la carga de trabajo de agentes será estructuralmente favorable para la cuota de mercado de AMD en la nube, pero mantiene una calificación de “Equal-weight” tanto para AMD como para Intel, prefiriendo seguir a NVIDIA, Broadcom y otros con “mayor correlación entre inversión en capital y crecimiento de tokens y beneficios”, considerando también que las valoraciones son un factor importante.

Desde una perspectiva más macro, el valor central de este informe radica en elevar el paradigma de inversión en IA de una “carrera armamentística de potencia de cálculo puntual” a una “economía de eficiencia sistémica y cuellos de botella”: GPU como motor, CPU como caja de cambios y sistema de control, memoria y conexiones como rutas de aceite y chasis — la máxima especialización sigue siendo importante, pero la escala de beneficios la determina la colaboración del vehículo completo.

Para la cadena de valor, esto significa que las ganancias excesivas de inversión en IA serán más dispersas y a largo plazo: no solo de los “GPU más potentes”, sino también de aquellos enlaces que primero se convierten en cuellos de botella en el flujo de trabajo de agentes y que son más difíciles de ampliar rápidamente. Los indicadores de verificación de alta frecuencia que se pueden seguir continuamente incluyen: la revisión de la cantidad de CPU y la configuración de memoria en nuevos plataformas BOM, el ritmo de firma de acuerdos a largo plazo por parte de los proveedores de nube, y la utilización de capacidad en placas ABF y procesos avanzados.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado