Two $20 Billion Deals: OpenAI and NVIDIA Engage in an 'Inference War'

华尔街见闻
2026.04.18 03:06

两笔约 200 亿美元交易引爆 AI 算力重构:英伟达收购 Groq 补齐推理芯片短板,OpenAI 巨资采购并入股 Cerebras 并参与其 IPO。随着 AI 算力从训练转向推理,芯片架构之争升级为产业控制权争夺,推理基础设施正成为新一轮 AI 战争核心战场。

2025 年 12 月,英伟达悄悄花了 200 亿美元买下了一家叫 Groq 的 AI 芯片公司。

2026 年 4 月 17 日,OpenAI 宣布将向另一家 AI 芯片公司 Cerebras 采购超过 200 亿美元的芯片。同一天,Cerebras 正式向纳斯达克递交 IPO 文件,目标估值 350 亿美元。

两笔钱,金额几乎完全相同。一笔是收购,一笔是采购。一笔来自全球最大的 AI 芯片卖家,一笔来自全球最大的 AI 买家。

这不是两件独立的事,这是同一场战争里的两个对称动作。战场的名字叫:AI 推理。

绝大多数人没注意到这场战争。因为它没有爆炸声,只有一行行财务公告,和硅谷工程师圈子里流传的技术讨论。但它的影响可能比过去两年任何一次 AI 发布会都要深远——因为它在重新分配一个几乎确定会成为史上最大科技市场的控制权。

推理是什么,为什么 2026 年的关键词不再是"训练"

在讲两个 200 亿之前,需要先理解一个背景:AI 芯片的战场,正在发生一次重心迁移。

训练和推理,是 AI 算力消耗的两个阶段。训练是造模型——把海量数据喂给神经网络,让它学会某种能力。这个过程通常只发生一次,或者定期更新。推理是用模型——每次用户发出一个问题,ChatGPT 给出一个回答,背后就是一次推理请求。

2023 年,全球 AI 算力支出的大头在训练,推理是配角。

但这个比例正在快速倒置。

根据德勤和 CES 2026 的市场研究数据,2025 年推理已经占到全部 AI 算力支出的 50%;2026 年,这个比例将跳到 2/3。联想 CEO 杨元庆在 CES 上说得更直白:AI 支出的结构,将从"80% 训练 +20% 推理",完全翻转为"20% 训练 +80% 推理"。

逻辑并不复杂。训练是一次性成本,推理是持续性成本。GPT-4 训了一次,但每天要回答亿级用户的问题,每一次对话都是一次推理请求。规模化部署之后,推理的累积消耗远超训练。

这意味着什么?意味着 AI 产业最赚钱的那块蛋糕,正在从"训练芯片"移向"推理芯片"。而这两种芯片,需要截然不同的架构设计。

英伟达的问题:为训练设计的芯片,天生不擅长推理

英伟达的 H100、H200,是为训练设计的怪兽。它们的核心优势是极高的计算吞吐量——训练需要对海量矩阵做大量乘法运算,GPU 擅长这种"多核并行计算"。

但推理的瓶颈不是计算,是内存带宽。

当用户发出问题,芯片需要把整个模型的权重从内存里"搬"到计算单元里,然后才能生成回答。这个"搬"的过程,才是推理延迟的真正来源。英伟达的 GPU 用的是外接高带宽内存(HBM),搬运这一步不可避免地引入延迟——对于每秒要处理几千万次请求的 ChatGPT 来说,这个延迟在乘以规模之后,变成了真实的性能瓶颈。

OpenAI 内部工程师注意到这个问题时,他们在给 Codex(代码生成工具)做优化,发现无论怎么调参,响应速度都受制于英伟达 GPU 的架构上限。

换句话说,英伟达在推理端的劣势,不是努力程度的问题,是架构的问题。

Cerebras 的 WSE-3 芯片走了完全不同的路线。这块芯片大到需要用晶圆级封装——面积 46,255 平方毫米,比人的手掌还大——把 90 万个 AI 核心和 44GB 超高速 SRAM 内存集成在同一块硅片上。内存直接贴在计算核心旁边,"搬运"的距离从厘米级缩短到微米级。结果:推理速度比英伟达 H100 快 15 到 20 倍。

需要补充的是:英伟达并没有坐以待毙。其最新的 Blackwell(B200)架构在推理性能上比 H100 提升了 4 倍,正在大规模部署。但 Blackwell 追的是一个移动的靶——Cerebras 同期也在迭代,而整个芯片市场涌现出的竞争对手,已经不只是 Cerebras 一家。

英伟达的 200 亿:历史最大并购背后的一张承认书

2025 年 12 月 24 日,英伟达宣布了它历史上最大的一笔收购。

目标是 Groq。

Groq 是 Cerebras 的同类竞争对手,主打的也是为推理优化的 SRAM 架构芯片——它叫 LPU(语言处理单元),当时在公开测评中是全球推理速度最快的芯片服务。英伟达花了 200 亿美元,把 Groq 的核心技术和创始团队全部买走,包括创始人 Jonathan Ross 和多位谷歌 TPU 团队出身的顶级芯片工程师。

这是英伟达 2019 年 70 亿美元收购 Mellanox 之后,规模最大的一次并购,整整翻了三倍。

在许多分析师看来,这笔钱背后传递的信息,远比金额更重要:英伟达认为自己在推理端有结构性缺口,而且这个缺口大到值得花 200 亿去堵。

如果英伟达真的相信自己的 GPU 在推理端无敌,它根本不需要收购 Groq。这笔钱本质上是一张价值 200 亿美元的技术采购单——承认 SRAM 嵌入式架构在推理场景里有真实的技术优势,承认英伟达靠现有产品线无法自然覆盖这个优势,用最贵的价格买下了一个它自己填不上的技术缺口。

当然,英伟达收购后的官方叙事是另一套——"与 Groq 深度整合,提供更完整的推理解决方案。" 技术语言的翻译版本是:我们意识到自己的东西不够用,所以买了别人的。

OpenAI 的 200 亿:买芯片只是表面,入股才是关键

现在回到 OpenAI 这边。

2026 年 1 月,OpenAI 和 Cerebras 签了一份 100 亿美元的三年算力采购协议——当时媒体报道的重点是"OpenAI 正在多元化芯片供应商",语气轻描淡写。

但 4 月 17 日最新曝光的细节,让这件事的性质发生了根本变化:

第一,采购金额从 100 亿变成了 200 亿,翻了一倍。

第二,OpenAI 将获得 Cerebras 的认股权证,随着采购规模增加,持股比例最高可达 Cerebras 总股本的 10%。

第三,OpenAI 还将向 Cerebras 提供 10 亿美元的数据中心建设资金——换句话说,OpenAI 在帮 Cerebras 盖厂。

这三个细节放在一起,画出来的图景完全不同:OpenAI 不只是在买芯片,OpenAI 是在孵化一个供应商。

这个逻辑在科技史上有清晰的先例。2006 年苹果开始与三星合作定制 A 系列芯片,最初也是大宗采购协议,但随着苹果不断加深参与、最终自研 M 系列芯片,供应链的控制权彻底从英特尔和三星那里转移到苹果自己手上。OpenAI 在做的,有几分类似——但有一个重要边界:苹果从一开始就掌握芯片设计权,OpenAI 目前仍然是采购者,Cerebras 上市后也将独立发展、服务更多客户。这条路的终点未必是 OpenAI 完全掌控 Cerebras,更可能是双方建立深度互依的生态共同体。

一方面用 200 亿和入股绑定 Cerebras,确保非英伟达的推理算力持续供应;另一方面,OpenAI 正在与博通合作研发自有 ASIC 芯片,预计 2026 年底量产。两条腿同时走,终点是算力自主。

Cerebras 今天 IPO,你买的是什么

4 月 17 日,Cerebras 正式提交纳斯达克 IPO 申请,目标估值 350 亿美元,计划融资 30 亿美元。

这个估值,距离它 2025 年 9 月还是 81 亿美元,涨了四倍多。今年 2 月刚完成新一轮融资,当时估值已升至 230 亿美元,IPO 目标的 350 亿在此基础上又溢价了 52%。

熟悉 Cerebras 历史的人知道,这是它第二次尝试上市。第一次,2024 年,因为核心客户 G42(阿联酋主权科技投资基金)占当年收入的 83%~97%,CFIUS 以国家安全为由介入审查,IPO 被迫撤回。

这次,G42 已经从股东名单中消失,取而代之的是 OpenAI。

换句话说,Cerebras 的客户集中度结构性问题尚未根本解决——大客户的名字换了,依赖大客户的格局还在。投资者要做的判断是:这个大客户是更好还是更糟?从信用角度看,OpenAI 显然优于 G42;从战略角度看,OpenAI 同时也是 Cerebras 的竞争对手孵化者——它的自研 ASIC 一旦成熟,对 Cerebras 是真实的替代威胁。

公平起见,Cerebras 也在积极拓展其他客户,招股书预计将列出更多元化的收入来源,集中度会有所改善。但在 OpenAI 自研芯片量产之前,这个问题的答案还没有揭晓。

买 Cerebras 的股票,你实际上是在同时押注:OpenAI 会持续选择 Cerebras,且 OpenAI 的自研 ASIC 不会提前到来。这两条,都不是确定的。

当然,多头理由也是真实的:如果推理市场的规模按预测轨道增长,Cerebras 哪怕只在这个市场里占到一个小份额,绝对数字也相当可观。问题不在于 Cerebras 有没有机会,而在于 350 亿的定价是否已经反映了最乐观的情形。

两个 200 亿,对称地出现在 2025 年底到 2026 年 4 月这段时间里。

一个来自全球最大的 AI 芯片卖家,买下了推理市场竞争对手的技术。

一个来自全球最大的 AI 买家,孵化了推理市场上挑战英伟达的公司。

英伟达的 200 亿是防御——它用最贵的价格堵住了一个自己填不上的技术缺口。

OpenAI 的 200 亿是进攻——它在烧钱建设一条不依赖英伟达的推理高速公路,同时拿到了这条路上一个收费站的认股权。

这场战争没有枪声,但资金的流向从来不说谎。两笔钱告诉你的,比任何 AI 发布会都更清楚:AI 推理基础设施的控制权,正在被争夺。而这块市场,2026 年将占到全行业算力支出的三分之二。

Cerebras 的 IPO,是这场战争吹响的号角。