После появления интеллектуальных агентов распределение всей цепочки стоимости ИИ изменилось

AI инвестицийный основной нарратив переживает структурную миграцию. Последние исследования Morgan Stanley показывают, что по мере перехода AI от «генерации контента» к «автоматическому выполнению задач», следующая логика прироста инфраструктуры AI расширится с «соревновательного чипового вычислительного потенциала» до «полностековой системной инженерии» — GPU по-прежнему остаются ядром, но уже не являются единственным источником бюджета и премий.

По данным аналитиков Morgan Stanley, в отчёте прямо указано: «Интеллектуальные агенты AI означают структурный сдвиг от вычислений к оркестрации.» В рабочем процессе интеллектуальных агентов, время оркестрации на стороне CPU может занимать от 50% до 90% общего задержки, что позволяет вывести рынок CPU с дополнительным спросом в 32,5–60 миллиардов долларов к 2030 году, а общий TAM серверных CPU — до 82,5–110 миллиардов долларов.

Тем временем, DRAM, ABF-платы, производство чипов, память, разъёмы и пассивные компоненты — все эти сегменты, ранее игравшие роль «поддержки», станут новыми узкими местами и источниками прибыли. В 2030 году они дополнительно создадут спрос на 15–45 ЭБ оперативной памяти DRAM, что составляет 26%–77% от общего годового предложения отрасли в 2027 году.

Это означает для рынка: выгоды от капитальных затрат на AI распространятся не только на несколько гигантов-чипмейкеров, а на всю глобальную цепочку поставок. Следующий виток сверхприбыли, возможно, будет приходить именно от тех «ключевых звеньев», которые первыми станут узким местом в рабочем процессе интеллектуальных агентов и при этом наиболее трудно быстро расширить производство. По мере перемещения узких мест по разным сегментам, распределение ценности в цепочке AI также изменится.

От «генерации» к «действию»: интеллектуальные агенты смещают узкое место с вычислительной мощности к оркестрации

Типичная структура рабочего процесса генеративного AI относительно проста: после получения запроса пользовательским интерфейсом, CPU выполняет небольшую предварительную обработку, GPU отвечает за генерацию токенов, затем результат возвращается. Вся цепочка — GPU играет главную роль, CPU выполняет вспомогательные функции.

Работа интеллектуальных агентов кардинально отличается. Для выполнения задачи системе нужно пройти через этапы планирования, поиска, вызова внешних инструментов и API, исполнения, рефлексии и итераций, а также задействовать кооперацию нескольких агентов, управление правами, сохранение состояния и планирование — то есть множество «контрольных» функций. Основной вывод Morgan Stanley: интеллектуальные агенты не требуют более «тяжёлых» одиночных вычислений, а требуют большего количества шагов, состояний и координации, что по своей природе лучше подходит для CPU.

Это приводит к двум последствиям: во-первых, соотношение CPU и GPU на уровне кластеров будет системно расти; во-вторых, DRAM перестанет быть просто «емкостью», а станет «ключевым компонентом производительности и пропускной способности». Узкие места в дата-центрах всё чаще будут связаны с пропускной способностью памяти, переносом данных, задержками межсоединений и системной координацией, а не только с вычислительной мощностью GPU.

Пересмотр соотношения CPU: от «1:12» к «1:2» и даже к обратной

Ранее типичной архитектурой для AI-серверов было соотношение «один CPU на 12 GPU». Но в отчёте отмечается, что по мере усложнения рабочих процессов агентов, увеличения вызовов инструментов и управления контекстом, это соотношение быстро сокращается.

Например, по дорожной карте NVIDIA, в платформе Rubin соотношение CPU и GPU уже приближается к 1:2; при переходе к более агрессивным конфигурациям, таким как Rubin Ultra, возможна обратная ситуация — 2 CPU на 1 GPU. Даже при улучшении соотношения с 1:12 до 1:8, для крупномасштабных развертываний абсолютный спрос на CPU значительно возрастёт.

Если эта тенденция подтвердится, то спрос на CPU станет более структурным, а не просто следовать за ростом серверных поставок. Это означает, что рост спроса на CPU будет зависеть от сложности рабочих процессов агентов, а не только от традиционных циклов обновления аппаратного обеспечения.

Пересчет TAM CPU: к 2030 году — 82,5–110 миллиардов долларов, прирост за счет оркестрации

Morgan Stanley использует «системный слой» подход, чтобы отделить возможности CPU, связанные с интеллектуальными агентами, от традиционной логики обновления серверных платформ, и выделяет три независимых аналитических направления:

  • Head Node CPU
    — соответствует управляющему уровню, близкому к системе GPU, — предполагается около 5 миллионов AI-ускорителей по всему миру к 2030 году, по 2 высокопроизводительных CPU на каждый, со средней ценой около 5000 долларов за CPU, что даёт TAM примерно в 50 миллиардов долларов.
  • Orchestration CPU
    — включает новые требования к оркестрации агентов, такие как планирование, управление инструментами, RAG-процессы, память KV-кэша и векторных баз данных, стратегии и мониторинг. Предполагается дополнительно 10–15 миллионов CPU по цене около 3000 долларов, что даёт TAM в 30–45 миллиардов долларов.
  • Other CPU
    — охватывает узлы хранения, части сетевых узлов и т.п., — примерно 2,5 миллиарда CPU, что соответствует 15 миллиардам долларов.

Общий TAM серверных CPU к 2030 году — около 82,5–110 миллиардов долларов, из которых прирост за счет интеллектуальных агентов — примерно 32,5–60 миллиардов. Основа оценки — прогноз продаж инфраструктуры AI к 2030 году в размере около 1,2 триллиона долларов (по сравнению с примерно 242 миллиардами в 2025 году).

Отчёт также содержит «функцию повышения оценки»: если, например, по аналогии с NVIDIA, к 2030 году продажи инфраструктуры AI достигнут 3 или 5 триллионов долларов, то диапазон TAM CPU может расшириться до 20,8–27,5 миллиардов или даже до 34,4–45,8 миллиардов долларов. Это не базовая оценка, а иллюстрация системного эффекта масштабирования спроса на CPU при росте «AI-фабрик».

Память как главный компонент: к 2030 году спрос на DRAM увеличится на 15–45 ЭБ

Ключевое отличие интеллектуальных агентов — не только в вычислительных возможностях, но и в «поддержании контекста и памяти». Постоянный контекст, KV-кэш, промежуточные состояния вызовов инструментов и параллельные рабочие наборы — всё это делает DRAM на стороне CPU функциональным продолжением HBM.

Модель оценки проста: дополнительный спрос на DRAM равен количеству новых оркестровых CPU, умноженному на средний объем DRAM на CPU. В качестве сценариев — 10 миллионов CPU с 1,5 ТБ DRAM на каждую, и более оптимистичный — 15 миллионов CPU с 3 ТБ на каждую. Это даёт прогноз, что к 2030 году спрос на DRAM, вызванный интеллектуальными агентами, составит 15–45 ЭБ, что равно 26%–77% от общего годового предложения отрасли в 2027 году.

В рамках циклов оценки также отмечается, что большинство поставщиков памяти ведут переговоры с крупными клиентами о долгосрочных соглашениях на 3–5 лет, что может снизить ценовые колебания и повысить прогнозируемость прибыли до 2027 года. «Уровень памяти становится ключевым каналом монетизации AI» — системные уровни памяти, такие как серверная DRAM, интерфейсные чипы, расширения CXL и иерархия хранения SSD/HDD, станут более устойчивыми точками дохода.

Места с ограниченной поставкой — более ценны: ABF-платы, производство и компоненты

Наиболее перспективными для сверхприбыли являются те «звенья», где производство идёт медленно, а цикл валидации — долгий. В отчёте выделены следующие цепочки:

ABF-платы: цикл роста спроса на ABF-платы под влиянием AI может продлиться до конца этого десятилетия, с возможным дефицитом в 2026–2027 годах. Только рост TAM CPU может привести к повышению спроса на ABF-платы на 5–10% к 2030 году; рынок серверных CPU на ABF-платах к тому времени достигнет около 4,7 миллиарда долларов, а дополнительный спрос — около 1,2 миллиарда долларов.

Производство чипов (особенно по передовым техпроцессам): рынок производства CPU к 2026 году — около 33 миллиардов долларов, к 2028 году — около 37 миллиардов. TSMC, по прогнозам, увеличит свою долю в этом сегменте с примерно 70% в 2026 году до 75% в 2028 году; ожидается, что Intel начнёт передавать часть производства серверных CPU на аутсорс TSMC уже во второй половине 2027 года.

BMC и интерфейсы памяти: Aspeed — ключевой поставщик BMC для CPU-серверов, занимает около 70% рынка; новая платформа AST2700 может повысить ASP на 40–50%; Montage — в цепочке «интерконнект памяти», с долей около 36,8%.

CPU Socket и пассивные компоненты: по моделям Lotes и FIT, увеличение на 1 миллион CPU увеличит доход Lotes примерно на 0,6%, а FIT — на 0,2% (по только socket-у). В пассивных компонентах, исходя из предположения, что на один сервер приходится около 30 долларов MLCC, прогнозируется дополнительный спрос на MLCC в размере около 500 миллионов долларов к 2030 году, что составляет 2–3% от глобального рынка.

CPU — наиболее очевидный источник роста, но «ключевые компоненты» — более привлекательны

Отчёт признаёт, что рост рабочих нагрузок интеллектуальных агентов структурно благоприятен для доли AMD в облаке, однако сохраняет рейтинг «равно-вес» для AMD и Intel, предпочитая отслеживать темы, связанные с NVIDIA, Broadcom и другими компаниями, где инвестиции и рост токенов более прямо связаны с прибылью, а также учитывая важность оценки.

В более широком контексте, основная ценность этого отчёта — в переходе от парадигмы «гонки за вычислительной мощностью» к «экономике системной эффективности и узких мест»: GPU — это двигатель, CPU — коробка передач и система управления, память и межсоединения — топливные системы и шасси — всё вместе определяет масштабируемость прибыли.

Для индустрии это означает, что сверхприбыли от инвестиций в AI станут более распределёнными и долгосрочными: не только за счёт «самых мощных GPU», а также за счёт тех «ключевых звеньев», которые первыми станут узким местом в рабочем процессе агентов и при этом наиболее трудно расширить производство. Высокочастотные индикаторы для отслеживания — это увеличение количества CPU и объема памяти в новых платформах, темпы долгосрочных соглашений облачных провайдеров, а также использование мощностей ABF-плат и передовых техпроцессов.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить