The AI arms race is not just about GPUs! Meta teams up with Amazon Graviton to challenge x86 hegemony

智通财经
2026.04.24 13:30

Meta 与亚马逊达成数十亿美元协议,租用 Graviton 系列 ARM 架构中央处理器,用于其新建的 AI 数据中心,以满足社交媒体用户的 AI 推理需求。亚马逊副总裁 Nafea Bshara 表示,此协议将使 Meta 长期使用 Graviton CPU,强调 CPU 在 AI 推理中的重要性。近年来,亚马逊在数据中心主要使用 Graviton 处理器,逐步减少对英特尔硬件的依赖。

智通财经 APP 获悉,美国云计算与电商巨头亚马逊 (AMZN.US) 与 Facebook 母公司 Meta Platforms Inc.(META.US) 已达成一项数十亿美元的长期协议,这家社交媒体巨头将租用数十万颗亚马逊自研推出的 ARM 架构通用数据中心服务器 CPU 芯片,用于其正在大规模新建的 AI 数据中心,以满足 Facebook 以及 Instagram 等社交媒体用户们的天量级别人工智能推理端工作负载。

亚马逊副总裁,同时也是该公司 Annapurna Labs 芯片部门联合创始人 Nafea Bshara 在接受采访时表示,这项多年期协议将让 Meta 获得 Graviton 系列数据中心服务器级别中央处理器的长期使用权。

能够生成文本或进行天量级别推理的人工智能大语言模型,通常是使用英伟达主导的 AI GPU 或者谷歌 TPU AI 算力集群来进行训练构建或者完整运行推理端 AI 工作负载。但 AI 大模型开发者以及 B 端或者 C 端 AI 应用平台的用户们同样迫切需要大型 AI 数据中心端 Graviton 这类通用中央处理器 (即数据中心服务器 CPU) 来执行诸多调度与协调类型任务,其中重点包括在模型训练完成后生成对查询的回应以及 AI 智能体代理式工作流进程,这一过程通常被称为 “AI 推理”。“如果旁边没有 CPU,GPU 就毫无用处,” Bshara 表示。

GPU/ASIC 之外的 AI 军备竞赛:Meta 牵手亚马逊,CPU 成为推理时代关键拼图

近年来,亚马逊在其数据中心部署的大多数 CPU 都是 Graviton 中央处理器;对于一家曾严重依赖英特尔 (INTC.US) 硬件体系的公司而言,这是一项巨大成就。Graviton 是亚马逊旗下 AWS 云计算业务部门自研的 ARM 架构通用服务器 CPU,主要承担 AI 数据中心里的通用计算、调度、数据预处理/后处理、服务编排,以及部分 AI 推理相关调度与协调工作。

亚马逊首席执行官 Andy Jassy 最近表示,该公司的数据中心芯片业务部门正朝着一年内实现 200 亿美元销售额的方向坚定前进,并且高管们正在考虑积极出售这些亚马逊自研的数据中心相关芯片,供像 Meta 以及 CoreWeave 这样的其他科技公司在其云计算服务器群中长期租赁或者长期按需使用————迄今为止,这些芯片只存在于亚马逊大型云计算数据中心,。

周五宣布的 Meta 与亚马逊重磅交易,可谓是大型科技公司之间最新一宗长期且大规模合作;当前,全球科技行业正争相确保获得足够多的 AI 算力相关的 CPU/GPU/ASIC AI 处理器设备集群,以驱动新的和正在研发的未来 AI 大模型。OpenAI 和 Anthropic 已表示,它们正在增加对亚马逊自研 Trainium AI 芯片的使用;Trainium 是亚马逊 AWS 独家研发的核心性能指标对标英伟达 AI GPU 算力体系的高性价比 AI ASIC 技术路线模式的替代型 AI 算力基础设施方案,并且已开始向 OpenAI 和 Anthropic 以及 Meta 积极营销该公司 Trainium 等一系列自研 AI 芯片算力系统。

Meta 在为其愈发庞大的 AI 工作负载获取芯片方面采取了广泛布局,并称这样做是为了实现合作伙伴多元化,以保持灵活性。该公司已与英伟达和 AMD 等芯片巨头们签署了一系列大型 AI 算力基础设施供给协议。

Meta 同意斥资数十亿美元购买英伟达和 AMD 共同主导的 AI GPU 算力基础设施解决方案。该公司最近还签署了一项另外的数十亿美元协议,将使用 Alphabet Inc.旗下谷歌独家打造的 TPU AI 算力集群。

Meta 也正在大举投入开发自有 AI 芯片,以帮助降低成本,并减少对第三方芯片巨头们的依赖。该公司目前正在为 AI 训练/推理用途开发四个版本的 MTIA AI 芯片,并且最近宣布扩大与博通的长期深度合作,由后者帮助 Meta 设计和制造这些 AI 芯片。

AI 智能体时代到来,数据中心 CPU 需求爆表

AI 数据中心建设进程如火如荼可谓推动英特尔数据中心 CPU 陷入供不应求态势,英特尔部分需求最火热的高性能服务器 CPU 交期最长拉到足足 6 个月之久,面向数据中心的这些高性能服务器级别 CPU 价格今年以来则普遍上涨 10%。这也是为何股价萎靡 1 年半之久的芯片制造商英特尔股价能够在今年暴涨超 80%,且这家老牌芯片巨头股价在上周一举创下 2000 年以来最高股价点位的最底层看涨逻辑。北京时间周五晨间公布全线超预期的业绩之后,英特尔估计在周五美股盘前一度暴涨超 30%。

早期大模型推理以 “单次请求—单次生成” 为主,CPU 更多承担数据搬运、请求路由与基础调度,属于典型的辅助控制面;但进入 AI 智能体与强化学习时代后,系统负载不再是单一前向推理,而是演变为包含任务规划、工具调用、子代理协同、环境交互、状态管理与结果验证在内的复杂闭环。上述 “编排层”(orchestration layer) 本质上是强控制流、强分支判断、强系统调用、强内存访问的 CPU 密集型任务,无法被 GPU 高效替代,因此 CPU 正从过去的 “配角” 变成决定系统吞吐、时延与资源利用率的新瓶颈。

摩根士丹利最新预测数据显示,智能体大爆发标志着从计算到编排的结构性转变,由此推导出到 2030 年新增 325 亿美元至 600 亿美元的 CPU 增量市场空间,并将服务器级别 CPU 总 TAM 大幅扩至 825 亿至 1100 亿美元量级。TrendForce 的一项预测报告则显示,在 AI 智能体时代,CPU:GPU 配比可能会从传统 AI 数据中心的 1:4 至 1:8,向 1:1 至 1:2 大幅重估。

对 Meta 这种每天处理海量 AI agent、推荐、广告、内容生成和查询响应的公司来说,很多任务并不需要昂贵 GPU 全程参与;大规模利用 Graviton 这类高密度 ARM 架构而非英特尔 x86 架构 CPU 承接推理服务外围负载,可以降低单位请求成本、释放 GPU 给更高价值的训练/推理任务,并改善整体集群 TCO。Arm 公司也强调,AI 数据中心扩张正在让低功耗、高效率的 ARM 架构 CPU 侧的编排、数据处理和系统控制成为关键瓶颈,而 AWS 第五代 Graviton 把核心数提升到 192 核,反映的正是这种 CPU 密度需求上升。

Meta 主导的这笔最新交易,也凸显出 AI 算力基础设施竞争正在从 “GPU 单一需求中心” 走向 GPU+ 自研 AI ASIC+ Arm/x86 数据中心级别 CPU + 数据中心高速光互连体系 + 软件堆栈的异构体系。