Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Após a ascensão dos agentes inteligentes, toda a distribuição da cadeia de valor da IA mudou.
A narrativa principal do investimento em IA está a passar por uma mudança estrutural. A mais recente pesquisa do Morgan Stanley indica que, à medida que a IA evolui de “geração de conteúdo” para “execução automática de tarefas”, a lógica incremental da próxima fase de infraestrutura de IA passará de uma “corrida de desempenho de chips únicos” para um “engenho de sistema de pilha completa” — a GPU continua a ser o núcleo, mas já não detém o orçamento e o prémio exclusivos.
Segundo a Trading台追风, o analista do departamento de investigação do Morgan Stanley, Shawn Kim, escreveu diretamente no relatório: “A IA de agentes inteligentes marca uma mudança estrutural do cálculo para a orquestração.” Nos fluxos de trabalho de agentes inteligentes, o tempo de orquestração na CPU pode representar entre 50% e 90% do atraso total, levando a uma estimativa de mercado adicional de 32,5 a 60 mil milhões de dólares em CPU até 2030, e a um aumento do TAM total de servidores CPU para cerca de 82,5 a 110 mil milhões de dólares.
Entretanto, os componentes como DRAM, placas ABF, foundries, wafers, conectores e componentes passivos, passarão de “coadjuvantes” a novos gargalos e reservatórios de lucros. Estima-se que em 2030, a procura adicional de DRAM será de 15 a 45 exabytes, uma escala equivalente a 26% a 77% da oferta anual de toda a indústria em 2027.
Esta avaliação significa que: os beneficiários do investimento em capital de IA se irão dispersar de alguns gigantes dos chips para toda a cadeia de fornecimento global, e os próximos lucros excessivos poderão vir daqueles que primeiro se tornam gargalos na orquestração de agentes inteligentes e que são mais difíceis de expandir rapidamente. À medida que os gargalos migram entre diferentes etapas, a distribuição do peso na cadeia de valor da IA também muda.
De “gerar” para “agir”: os agentes inteligentes deslocam o gargalo do poder de processamento para a orquestração
A estrutura típica do fluxo de trabalho de IA generativa é relativamente simples: após a chegada do pedido do utilizador, a CPU realiza uma pré-processamento, a GPU é responsável pela geração de tokens, e depois devolve o resultado. Em toda a cadeia, a GPU é a protagonista absoluta, enquanto a CPU desempenha funções auxiliares.
A lógica operacional dos agentes inteligentes é completamente diferente. Para completar uma tarefa, o sistema precisa passar por várias etapas — planeamento, recuperação, chamada de ferramentas externas e APIs, execução, reflexão e iteração — além de envolver colaboração entre múltiplos agentes, gestão de permissões, persistência de estado e agendamento, entre muitas outras capacidades de “camada de controlo”. A conclusão principal do Morgan Stanley é: o que os agentes inteligentes trazem não é uma inferência mais “pesada” única, mas sim mais passos, mais estados e mais coordenação, tarefas que naturalmente se ajustam melhor ao processamento na CPU.
Consequências diretas: em primeiro lugar, a proporção de CPU para GPU ao nível do cluster irá aumentar sistematicamente; em segundo lugar, a DRAM passará de uma “opção de capacidade” a um “componente central de desempenho e throughput”. Os gargalos nos data centers passarão a estar mais relacionados com largura de banda de memória, transferência de dados, latência de interconexão e coordenação a nível de sistema, do que apenas com o poder de processamento da GPU.
A proporção de CPU está a ser reavaliada: de “1:12” para “1:2” ou até uma inversão
No passado, a descrição típica de uma arquitetura de servidores de IA era “uma CPU para cerca de 12 GPUs”. Mas o relatório indica que, à medida que os fluxos de trabalho de agentes inteligentes se alongam e as chamadas de ferramentas e gestão de contexto se tornam mais complexas, essa proporção está a diminuir rapidamente.
Tomando como exemplo o roteiro da NVIDIA, as estimativas atualizadas mostram que, perto da plataforma Rubin, a proporção de CPU para GPU já se aproxima de 1:2; e, se evoluir para formas mais agressivas como o Rubin Ultra, pode até ocorrer uma inversão, com 2 CPUs para 1 GPU. Mesmo uma melhoria de 1:12 para 1:8 implicará, para implementações de grande escala, um aumento absoluto na procura de CPUs.
Se esta tendência se confirmar, a elasticidade da procura de CPU passará de “seguir as entregas de servidores” para “seguir a complexidade dos agentes”, o que significa que o crescimento da procura de CPU será mais estrutural, e não apenas uma continuação do ciclo tradicional de substituição de hardware.
Reavaliação do TAM de CPU: 825 a 1100 mil milhões de dólares em 2030, com incremento vindo da orquestração
O Morgan Stanley usa uma abordagem de “camadas de sistema” para separar as oportunidades de CPU trazidas pelos agentes inteligentes da lógica de atualização de servidores tradicional, estabelecendo três perspetivas de análise independentes:
No total, o TAM de CPU para servidores em 2030 será aproximadamente entre 82,5 e 110 mil milhões de dólares, com um incremento de cerca de 32,5 a 60 mil milhões de dólares devido aos agentes inteligentes. A base de toda a estimativa assenta na previsão de que as vendas globais de infraestruturas de centros de dados de IA em 2030 serão cerca de 1,2 triliões de dólares (contra cerca de 242 mil milhões em 2025).
O relatório também fornece um “interruptor de revisão para cima”: se, por exemplo, as vendas de infraestruturas de IA atingirem 3 ou 5 triliões de dólares até 2030, o intervalo de TAM de CPU será elevado para 206 a 275 mil milhões de dólares, ou até 344 a 458 mil milhões de dólares. Embora não seja uma previsão base, revela o efeito amplificador sistemático na procura de CPU devido à expansão da “fábrica de IA”.
A memória passa de coadjuvante a linha principal: procura adicional de DRAM de 15 a 45EB em 2030
A verdadeira diferenciação da IA de agentes inteligentes não reside apenas na capacidade de inferência, mas na “sustentabilidade do contexto e da memória”. Contexto contínuo, cache KV, estados intermediários de chamadas de ferramentas e conjuntos de trabalho de agentes concorrentes fazem com que a DRAM na CPU funcione essencialmente como uma extensão funcional do HBM.
O modelo de estimativa é direto: a procura adicional de DRAM é igual ao número adicional de CPUs de orquestração multiplicado pela configuração média de DRAM por CPU. As duas hipóteses são: 10 milhões de CPUs adicionais com cerca de 1,5TB cada, e uma hipótese otimista de 15 milhões de CPUs com cerca de 3TB cada. Assim, estima-se que a IA poderá gerar uma procura adicional de 15 a 45EB de DRAM em 2030, equivalente a 26% a 77% da oferta anual de DRAM em 2027.
No que diz respeito à evolução do mercado, o relatório assinala uma variável estrutural: muitos fornecedores de memória estão a discutir acordos de longo prazo de 3 a 5 anos com grandes clientes, o que pode atenuar a tendência de queda de preços e aumentar a visibilidade de lucros antes de 2027. “A hierarquia de memória está a tornar-se na principal via de monetização do sistema de IA” — incluindo DRAM de host, chips de interface de memória, expansão CXL e armazenamento em camadas de SSD/HDD, que passarão a ser pontos de valor mais sustentáveis.
As etapas com maior escassez de oferta terão maior poder de fixação de preços: placas ABF, foundries e componentes de enabling
E, de facto, os segmentos com potencial de lucros excessivos são aqueles em que a “capacidade de produção cresce lentamente e os ciclos de validação são longos”. O relatório destaca as seguintes cadeias:
Placas ABF: O ciclo de alta impulsionado pela IA nesta fase pode prolongar-se até ao final desta década, com risco de escassez de oferta em 2026-2027. Só a expansão do TAM de CPU pode levar a uma revisão de 5% a 10% na procura de ABF em 2030; a estimativa é que o mercado de placas ABF para servidores CPU atinja cerca de 4,7 mil milhões de dólares em 2030, com um incremento de cerca de 1,2 mil milhões de dólares devido à procura adicional de CPU.
Foundries (especialmente processos avançados): O mercado de foundries para CPU deve atingir cerca de 33 mil milhões de dólares em 2026 e cerca de 37 mil milhões em 2028. A TSMC deverá aumentar a sua quota de mercado de foundry de CPU de cerca de 70% em 2026 para aproximadamente 75% em 2028; espera-se também que a Intel comece a terceirizar a produção de servidores para a TSMC na segunda metade de 2027.
BMC e interfaces de memória: A Aspeed é destacada como a principal beneficiária do mercado de BMC para servidores CPU, com cerca de 70% de quota de mercado nesta área, e a nova plataforma AST2700 oferece uma melhoria de ASP de 40% a 50%; a Montage é colocada na cadeia de valor de “interconexão de memória”, com uma quota de receita global de cerca de 36,8%.
Socket de CPU e componentes passivos: O relatório usa a Lotes e a FIT como mapeamentos diretos do socket de CPU, estimando que, para cada aumento de 1 milhão de CPUs, a receita da Lotes aumentará cerca de 0,6%, e a da FIT cerca de 0,2% (apenas com base no socket). Quanto aos componentes passivos, assume-se que cada servidor genérico utiliza cerca de 30 dólares em MLCC, levando a uma procura adicional de 500 milhões de dólares em MLCC em 2030, o que representa cerca de 2% a 3% do mercado global de MLCC na altura.
A CPU é a fonte mais clara de crescimento, mas os “componentes de enabling” são mais preferidos
O relatório reconhece que o crescimento da carga de trabalho de agentes inteligentes beneficiará estruturalmente a quota de mercado da AMD na cloud, mas mantém uma classificação de “Equal-weight” para AMD e Intel, preferindo seguir os temas de agentes inteligentes através de ações como NVIDIA, Broadcom, que têm uma ligação mais direta entre o investimento de capital, crescimento de tokens e lucros, e também considerando a avaliação como um fator importante.
De uma perspetiva mais macro, o valor principal deste relatório reside em elevar o paradigma de investimento em IA de uma “corrida de desempenho de pontos isolados” para uma “economia de eficiência de sistema e gargalos”: a GPU é o motor, a CPU é a caixa de mudanças e o sistema de controlo, a memória e a interconexão são os tubos de óleo e o chassis — o desempenho extremo de um ponto ainda é importante, mas o que determina o retorno em escala é a coordenação de todo o sistema.
Para a cadeia de valor, isto significa que as fontes de retorno excessivo do investimento em IA serão mais dispersas e de longo prazo: não apenas de “GPU mais potente”, mas também daqueles componentes que primeiro se tornam gargalos na orquestração de agentes inteligentes e que são mais difíceis de expandir rapidamente. Os indicadores de validação de alta frequência que podem ser acompanhados continuamente incluem: o aumento do número de CPUs e a configuração de memória nos novos plataformas BOM, o ritmo de assinatura de acordos de longo prazo com fornecedores de cloud, e a utilização de capacidade de foundries de placas ABF e processos avançados.