NVIDIA is being cornered: OpenAI releases Cerebras chip-supported model for the first time

华尔街见闻
2026.02.12 18:01
portai
I'm PortAI, I can summarize articles.

OpenAI 周四发布的 GPT-5.3-Codex-Spark 专为实时编码设计,是 OpenAI 最新代码自动化软件 Codex 的精简版,也是 OpenAI 上月与 Cerebras 签署超 100 亿美元协议后的首个成果。OpenAI 发言人称,与英伟达的合作关系是 “基础性的”,将持续评估所有用例中性价比最高的芯片,对于研究和推理等应用场景,GPU 仍是首选。

OpenAI 正在减少对英伟达的依赖,本周四发布了首个运行在 Cerebras Systems 芯片上的 AI 模型,标志着这家 AI 明星在供应商多元化策略上迈出关键一步。此举正逢 OpenAI 与英伟达关系微妙,双方去年秋季宣布的千亿美元合作如今据称陷入停滞。

GPT-5.3-Codex-Spark 专为实时编码设计,是 OpenAI 最新代码自动化软件 Codex 的精简版,旨在提供更快响应速度以换取部分性能。OpenAI 称该模型生成速度比前代产品快 15 倍,每秒可输出超过 1000 个 token。这是 OpenAI 2026 年 1 月与 Cerebras 签署超过 100 亿美元协议后的首个成果。

该模型率先向 ChatGPT Pro 订阅用户开放研究预览版,并通过 Codex 应用、命令行界面和 Visual Studio Code 扩展提供服务。OpenAI 表示,Codex 目前拥有超过 100 万周活跃用户,过去十天下载量超过 100 万次。

这一发布凸显了 OpenAI 在 AI 编码助手市场的竞争压力。该公司正面临来自谷歌、Anthropic 等对手的激烈竞争,同时还需应对内部安全团队解散、研究人员离职以及在 ChatGPT 中引入广告等争议。

速度提升伴随性能妥协

Codex-Spark 代表 OpenAI 首个专为实时编码协作打造的模型。该公司声称生成速度提升 15 倍,但拒绝提供具体延迟指标,如首 token 时间或每秒 token 数。

"我们无法分享具体延迟数字,但 Codex-Spark 经过优化,能够提供近乎即时的感受——在保持真实编码任务高度能力的同时,实现 15 倍更快的生成速度,"OpenAI 发言人表示。

这种速度提升以能力妥协为代价。在 SWE-Bench Pro 和 Terminal-Bench 2.0 这两个评估 AI 系统自主执行复杂软件工程任务能力的行业基准测试中,Codex-Spark 的表现不及完整版 GPT-5.3-Codex 模型。OpenAI 将此定位为可接受的权衡:开发者能够获得足够快的响应以保持创作流畅性,即使底层模型无法处理最复杂的多步骤编程挑战。

该模型配备 128000 个 token 的上下文窗口,仅支持文本输入,不支持图像或多模态输入。小部分企业合作伙伴将获得 API 访问权限以评估集成可能性。OpenAI 计划在未来几周根据实际工作负载调整后扩大访问范围。

Cerebras 硬件消除传统 GPU 集群瓶颈

Codex-Spark 背后的技术架构反映出推理经济学在 AI 公司扩展面向消费者产品时日益重要。Cerebras 的第三代晶圆级引擎是一块约餐盘大小的单芯片,包含 4 万亿个晶体管,消除了 AI 工作负载分散到多个小型处理器集群时产生的大量通信开销。

对于训练大规模模型,分布式方法仍然必要,英伟达 GPU 在此表现出色。但对于推理——即生成用户查询响应的过程——Cerebras 认为其架构可以以显著更低的延迟交付结果。Cerebras 首席技术官兼联合创始人 Sean Lie 将这一合作视为重塑开发者与 AI 系统交互方式的机会。

"GPT-5.3-Codex-Spark 最令我们兴奋的是与 OpenAI 及开发者社区合作,探索快速推理带来的可能性——新的交互模式、新的用例,以及根本不同的模型体验,"Lie 在声明中表示。"这次预览仅仅是开始。"

OpenAI 的基础设施团队并未将优化工作局限于 Cerebras 硬件。该公司宣布在整个推理堆栈中实现延迟改进,使所有 Codex 模型受益,包括持久 WebSocket 连接和 Responses API 内的优化。结果显示:每次客户端 - 服务器往返开销减少 80%,每 token 开销减少 30%,首 token 时间减少 50%。

与英伟达千亿美元协议似乎停滞

鉴于 OpenAI 与英伟达之间日益复杂的关系,Cerebras 合作意义重大。

2025 年 9 月,英伟达与 OpenAI 宣布签署意向书确立达成战略合作,OpenAI 将利用英伟达的系统打造和部署至少 10 千兆瓦(GW)的 AI 数据中心,使用数百万块英伟达的图形处理器(GPU)训练和部署 OpenAI 的下一代 AI 模型,英伟达则计划对 OpenAI 投资最高 1000 亿美元。这是英伟达迄今为止做出的最大手笔投资承诺。

以上战略合作声明似乎巩固了全球最有价值 AI 公司与主导芯片供应商之间的战略联盟。

五个月后,据多个报道,上述巨额交易已实质性停滞。英伟达 CEO 黄仁勋公开否认存在紧张关系,1 月下旬告诉记者"没有戏剧性",英伟达仍致力于参与 OpenAI 当前融资轮。但双方关系已明显降温,评论认为摩擦源于多个方面。

OpenAI 积极寻求与替代芯片供应商的合作,包括与 Cerebras 的交易以及分别与 AMD 和博通签署协议。2025 年 10 月,OpenAI 与英伟达竞争对手 AMD 达成重磅协议,将在多年内部署 6GW 的 AMD GPU。同月晚些时候,OpenAI 同意从博通购买定制芯片和网络组件。

从英伟达角度看,OpenAI 可能正在利用其影响力将使其 AI 突破成为可能的硬件商品化。从 OpenAI 角度看,减少对单一供应商的依赖代表着审慎的商业策略。

OpenAI 发言人本周四告诉媒体,“将继续与生态系统合作,持续评估所有用例中性价比最高的芯片”,“对于研究和推理等对成本敏感且以吞吐量为先的应用场景,GPU 仍然是我们的首选。”

这一声明体现出避免激怒英伟达同时保留灵活性的谨慎努力,也反映出训练前沿 AI 模型仍需要英伟达 GPU 提供的大规模并行处理能力。

OpenAI 发言人在周四的声明中表示,OpenAI 与英伟达的合作关系是 “基础性的”,OpenAI 最强大的 AI 模型是两家公司 “多年来在硬件和软件工程方面并肩合作” 的结果。“这就是为什么我们将英伟达作为训练和推理堆栈的核心,同时通过与 Cerebras、AMD 和博通的合作有意扩展其周围的生态系统。”

内部动荡加剧外界审视

Codex-Spark 发布之际,OpenAI 正应对一系列内部挑战,加剧了外界对该公司方向和价值观的审视。据本周报道,OpenAI 解散了其使命对齐团队,该团队于 2024 年 9 月成立,旨在推动公司确保通用人工智能造福人类的既定目标。团队七名成员已被重新分配到其他岗位,负责人 Joshua Achiam 获得"首席未来学家"的新头衔。

OpenAI 此前在 2024 年解散了另一个关注安全的团队——超级对齐团队,该团队专注于 AI 带来的长期存在性风险。解散安全导向团队的模式招致研究人员批评,他们认为 OpenAI 的商业压力正在压倒其最初的非营利使命。

该公司还面临在 ChatGPT 中引入广告决定带来的后果。研究员 Zoë Hitzig 本周因她所描述的广告支持 AI 的"滑坡效应"而辞职,在《纽约时报》撰文警告称,ChatGPT 存档的亲密用户对话记录为操纵创造了前所未有的机会。Anthropic 在超级碗广告中趁机打出标语:"广告正进入 AI。但不会进入 Claude。"

另外,该公司同意通过 Genai.mil 向五角大楼提供 ChatGPT,这是美国国防部的新项目,要求 OpenAI 允许"所有合法使用"而不受公司施加的限制——据报道 Anthropic 拒绝了这些条款。还有报道称,曾对计划中的露骨内容功能表达担忧的 OpenAI 产品政策副总裁 Ryan Beiermeister 在 1 月份因歧视指控被解雇,她否认该指控。

AI 编码助手市场竞争加剧

尽管周围动荡不安,OpenAI 针对 Codex 的技术路线图仍显示出雄心勃勃的计划。OpenAI 设想推出一种编码助手,能够无缝融合快速交互式编辑与长期运行的自主任务——一个既能处理快速修复,又能同时协调多个代理在后台处理更复杂问题的 AI。

OpenAI 发言人告诉媒体:“随着时间推移,这些模式将融合——Codex 可以让你保持紧密的交互循环,同时将长期运行的工作委派给后台子代理,或者在你需要广度和速度时将任务并行分配给多个模型,这样你就不必预先选择单一模式。”

这一愿景不仅需要更快的推理速度,还需要复杂的任务分解以及不同规模和能力模型之间的协调。Codex-Spark 为该体验的交互部分建立了低延迟基础;未来版本需要提供自主推理和多代理协调能力,才能实现完整愿景。

目前,Codex-Spark 采用与其他 OpenAI 模型分开的速率限制,反映出研究预览期间 Cerebras 基础设施容量受限。"因为它运行在专门的低延迟硬件上,使用受单独速率限制管控,在研究预览期间可能根据需求调整,"发言人指出。这些限制被设计为"慷慨的",OpenAI 在决定如何扩展时监控使用模式。

Codex-Spark 的发布正值 AI 驱动开发工具激烈竞争之际。Anthropic 的 Claude Cowork 产品上周引发传统软件股抛售,因投资者考虑 AI 助手是否可能取代传统企业应用。微软、谷歌和亚马逊继续在与各自云平台集成的 AI 编码能力上大举投资。

OpenAI 的 Codex 应用自推出十天以来展现出快速采用势头,周活跃用户周环比增长 60%。目前超过 32.5 万开发者在免费和付费层级积极使用 Codex。但 OpenAI 及更广泛 AI 行业面临的根本问题是,像 Codex-Spark 承诺的速度改进是否能转化为有意义的生产力提升,还是仅仅创造更愉快的体验而不改变结果。

Cerebras 交易是一个经过计算的赌注:专用硬件可以解锁通用 GPU 无法经济高效服务的用例。对于一家同时与竞争对手作战、管理紧张供应商关系并应对内部对其商业方向异议的公司而言,这也提醒人们,在 AI 竞赛中,原地不动不是选项。OpenAI 通过快速行动和打破常规建立了声誉。现在它必须证明自己可以行动得更快——而不会破坏自己。