Ratio Shifts from 1:8 to 1:1: Undervalued CPU Becomes New AI Bottleneck

华尔街见闻
2026.04.15 03:01

AI 算力竞赛的焦点正悄然转移:随着智能体 AI 爆发,CPU 从数据中心配角升级为关键瓶颈。CPU 与 GPU 配比预计从 1:8 骤收至 1:1,算力需求四倍激增。Intel、AMD 提价应对短缺,英伟达、Arm 同月宣布强势入局,竞争格局加速重写。

AI 算力竞赛的焦点,正在悄然从 GPU 转向一个长期被忽视的角色——CPU。

随着 AI 智能体和强化学习(RL)工作负载的爆发式增长,CPU 在数据中心的战略地位正经历结构性重估。知名半导体分析机构 SemiAnalysis 首席分析师 Dylan Patel 在 4 月 8 日的一次深度访谈中直言,AI 工作负载的范式正从简单的文本生成向复杂的智能体和强化学习演进,CPU 正面临"极其严重的产能短缺"。

市场研究机构 TrendForce 的最新报告印证了这一判断:当前 AI 数据中心的 CPU 与 GPU 配比约为 1:4 至 1:8,而在智能体 AI 时代,这一比例预计将演变至 1:1 至 1:2。

这一结构性转变已在供需两端引发连锁反应。Intel 和 AMD 已于 2026 年第一季度末对部分 CPU 产品线提价。与此同时,英伟达和 Arm 双双于 2026 年 3 月宣布进军服务器 CPU 市场——一家 GPU 巨头与一家 IP 授权商在同一个月做出相同选择,绝非巧合,而是市场信号的集中释放。

智能体崛起,CPU 从配角变瓶颈

在 AI 发展的早期阶段,CPU 的角色相当边缘。Dylan Patel 将其描述为:"负载很轻。你发一个字符串,它回一个字符串,简单的推理,对 CPU 需求不大。"彼时,GPU 凭借其大规模并行矩阵运算能力主导了 AI 算力需求,CPU 仅承担向 GPU 压缩和路由内存数据的辅助职能。

然而,以 OpenAI o1 为代表的新一代推理模型,以及随之兴起的 AI 智能体架构,从根本上改变了这一格局。与静态大语言模型不同,智能体 AI 需要动态与环境交互——规划任务、调用工具、在子智能体之间传递数据、评估任务是否完成。这一"编排层"(Orchestration)的全部协调工作,恰恰落在 CPU 肩上,使其成为典型的 CPU 密集型负载。

2025 年 11 月发布的学术论文《A CPU-Centric Perspective on Agentic AI》进一步量化了这一压力:在智能体 AI 场景中,CPU 工具处理(包括 Python 解释、网页爬取、词法摘要、数据库检索等)产生的延迟,可占总延迟的高达 90.6%;在大批量处理场景下,CPU 动态能耗可达系统总动态能耗的 44%。

Arm 的测算则从容量角度揭示了需求缺口的量级:传统 AI 数据中心每吉瓦(GW)约需 3000 万颗 CPU 核心,而在智能体 AI 时代,这一需求将激增至 1.2 亿颗——增幅达四倍。

Intel 承压,AMD 乘势扩张

CPU 需求的结构性上升,首先在传统 x86 市场引发了格局重塑。

Intel 的 Xeon 处理器曾长期占据数据中心 CPU 市场逾 95% 的份额。这一统治地位自 2021 年起开始松动——Intel 7 制程的良率问题导致 Xeon Sapphire Rapids 发布延迟近两年,为 AMD 的 EPYC Milan 打开了市场缺口。

2026 年,Intel 计划推出两款旗舰产品:采用 Darkmont 架构的 Xeon 6+(Clearwater Forest),拥有 288 核/288 线程,TDP 约 450W;以及采用 Panther Cove-X 架构的 Xeon 7(Diamond Rapids),最高 256 核/256 线程,TDP 高达 650W。两款产品均基于 Intel 最先进的 18A 制程,并首次引入 Foveros Direct 混合键合技术。然而,TrendForce 指出,受 18A 制程良率问题持续困扰,两款产品的量产时间均可能推迟至 2027 年。

相比之下,AMD 的节奏更为稳健。其 2026 年旗舰产品 EPYC Venice 将采用台积电 N2 制程、Zen 6 架构,并搭载 CoWoS-L 与 SoIC 先进封装,通过同步多线程(SMT)技术实现 256 核/512 线程——线程数为当前市场最高。TrendForce 预计,AMD 将在 2026 年持续从 Intel 手中蚕食市场份额。

英伟达、Arm 强势入局,竞争格局重写

传统 x86 双雄之外,一批非传统玩家正以前所未有的速度涌入服务器 CPU 赛道,从根本上改写竞争格局。

2026 年 3 月,英伟达宣布将 Vera CPU 作为独立产品对外销售,以满足客户对更灵活 CPU:GPU 配置的需求。Vera 采用英伟达自研 Olympus 架构,基于台积电 N3 制程与 CoWoS-R 封装,提供 88 核/176 线程,并配备 1.8 TB/s 的 NVLink-C2C 互联,可与英伟达 GPU 实现内存共享。首批合作伙伴涵盖 Alibaba、ByteDance、Cloudflare、CoreWeave、Oracle 等。英伟达还推出了 Vera CPU 机架,单机架集成 256 颗 CPU,合计 22,528 核/45,056 线程,总内存达 400 TB。

同月,Arm 宣布推出首款自研 CPU 产品 Arm AGI CPU,终结了其 35 年纯授权商的历史定位。该产品基于台积电 N3 制程与 Neoverse V3 架构,提供 136 核/136 线程,TDP 为 300W,支持 DDR5-8800 内存与 PCIe Gen6。首批合作伙伴包括 Meta、OpenAI、Cerebras、Cloudflare、SK Telecom 等。Arm 同步推出两款机架配置:风冷版集成 60 颗 AGI CPU(8,160 核,约 180 TB 内存),液冷版则支持 336 颗 CPU(45,696 核,1 PB 内存)。

主要云服务商(CSP)同样加速布局自研 CPU。AWS 于 2025 年 12 月发布基于台积电 N3 制程的 Graviton5(192 核/192 线程),并与自研 Trainium 3 AI ASIC 协同部署以降低 AI 计算成本;微软于 2025 年 11 月推出 Cobalt 200(N3 制程,132 核/132 线程);谷歌则计划于 2026 年推出 Axion C4A.metal 裸金属版本及下一代 Axion N4A,主打最高性价比。

IC 后端设计服务商迎来增量机遇

非传统玩家的大规模入场,正在为 IC 后端设计服务商创造可观的增量业务。

TrendForce 指出,AWS 目前仍坚持自主完成 CPU 后端设计,而谷歌和微软均已将 CPU 后端设计服务外包给创意电子(Global Unichip Corp.,GUC)。随着更多 CSP 和新兴 CPU 厂商加入市场,这一外包需求有望持续扩大。

TrendForce 预计,2026 年至 2028 年间,Broadcom、Marvell、GUC、Alchip、联发科等 ASIC 设计服务商将陆续承接来自上述客户的新增项目。对于寻找 AI 基础设施投资新切口的市场参与者而言,这一环节或许正是 GPU 热潮之外,尚未被充分定价的结构性机遇。