
英伟达(纪要):明年目标毛利率 75%,Open AI 的合作并不盲目
以下为海豚君整理的英伟达 2026 财年第三季度的财报电话会纪要,财报解读请移步《比非农还重要!英伟达能再拯救美股吗?》
相比于财报信息,更为重要的是英伟达的本次电话会传递的信息:
①数据中心收入: GB300 销量超越 GB200,贡献 Blackwell 总收入约三分之二。Hopper 收入约 20 亿美元,其中 H20 约 5000 万美元;
对于指引方面:公司在下季度收入指引中,依然未将中国市场的 AI GPU 的收入纳入预期中。在 KSA、Anthropic 等新增需求带动下,公司最终可能会超过此前指引(Blackwell+Rubin 至 2026 年底的 5000 亿美元收入)
②单 GW 中英伟达的价值量:Hopper 大约在 200-250 亿美元/GW,Blackwell 世代(尤其是 Grace Blackwell)约为 300 亿美元左右/GW,Rubin 会更高;
③目标毛利率:尽管成本上升,2027 财年(即 2026 年)毛利率的目标维持在 75% 左右;
④OpenA 的合作:核心是帮助其建设并部署至少 10 千兆瓦规模的 AI 数据中心,还有机会对该公司进行投资。目前公司正推进达成一份最终协议。
公司通过 OpenAI 的云服务合作伙伴——微软 Azure(Microsoft Azure)、甲骨文云基础设施(OCI)及 CoreWeave—— 为其提供服务。在可预见的未来,公司将继续保持这一合作模式。
⑤Anthropic 的合作:首次采用英伟达技术,将针对 CUDA 技术优化 Anthropic 的模型,从而实现最佳的性能、效率与总拥有成本(TCO)。初始算力承诺包含 1GW 的算力容量,将基于 Grace Blackwell 与 Vera Rubin 系统实现。
⑥对 AI 泡沫论的回应:英伟达与其他任何加速器厂商都不同,公司在 AI 的每个阶段都表现出色,无论是预训练、训练后处理还是推理。而且,凭借 20 年来在 CUDA X 加速库上的投入,公司在科学与工程仿真、计算机图形学、结构化数据处理以及传统机器学习等领域,同样具备出众的实力
⑦对 ASIC 竞争的回应:这不仅仅是随意将一颗 ASIC 放入数据中心,而是关乎需求从何而来、多样性从何而来、韧性从何而来。公司架构的多功能性、能力的多样性,以及庞大的生态系统,带来了极其良好的需求。这五个方面——加速转型的每个阶段、AI 的每个阶段、每一种模型、从云到本地部署的覆盖,最终都导向了实实在在的需求。
综合以上信息,英伟达对市场担心的方面都做出相应的回应:
a)毛利率目标:明年给出 2027 财年毛利率在 75% 左右,稳住市场的信心(尤其是市场担心明年下半年毛利率滑坡的风险);
b)ASIC 市场竞争:公司坚信自身的产品力和覆盖面,能提供比 ASIC 更多的价值和能力;
c)Open AI 的合作:公司与 Open AI 的合作并不盲目,是通过微软、甲骨文、Coreweave 等合作的方式,是一定的条件和约束的;
d)在 KSA、Anthropic 等新增需求带动下,公司认为 AI 收入实际上可能会超过此前的指引(Blackwell+Rubin 至 2026 年底的 5000 亿美元收入)。
整体来看,英伟达给出超预期财报之后,管理层还对市场上担心的方面进行了回应。尤其是毛利率的明确指引和 Open AI 的合作计划,在一定程度上给市场注入了信心。在管理层交流之后,公司股价继续上涨至 5% 附近。
而至于 ASIC 竞争方面,公司并未给出很明确的观点,这依然是压制公司股价上涨的一个方面。如果公司能更加明确回应竞争问题,英伟达的估值有望进一步抬升。
一、$英伟达(NVDA.US) 财报核心数据回顾
季度营收:570 亿美元,同比增长 62%,环比增长 100 亿美元(22%),创历史新高。
数据中心营收:510 亿美元,同比增长 66%,计算业务同比增长 56%(主要受益于 GB300 量产),网络业务增幅逾一倍(源于 NVLink 规模化部署)。
各业务营收:
游戏业务:43 亿美元,同比增长 30%。
专业可视化业务:7.6 亿美元,同比增长 56%。
汽车业务:5.92 亿美元,同比增长 32%。
毛利率:GAAP 毛利率 73.4%,非 GAAP 毛利率 73.6%。
运营支出:GAAP 运营支出环比增长 8%,非 GAAP 运营支出增长 11%。
库存与供应链:库存环比增长 32%,供应承诺额环比增长 63%。
税率:非 GAAP 实际税率 17%,略高于预期 16.5%。
- 英伟达财报电话会详细信息
2.1 高层陈述核心信息
战略与前景:
客户正推动三大平台转型(加速计算、AI 模型和智能代理),这些变革处于初期阶段,影响将遍及各行各业。
从 2024 年初至 2026 年底,Blackwell 和 Ruben 架构预计创造 5000 亿美元收入;2030 年末,AI 基础设施市场预计达 3 万亿至 4 万亿美元,英伟达将成为首选方案。
三大扩展法则(预训练、后训练与推理)催生良性循环:计算资源获取推动智能提升,进而促进应用普及与利润增长。
世界正经历三重平台变革:从 CPU 向 GPU 加速计算转型(加速计算)、生成式 AI 转型(生成式人工智能正逐步取代传统机器学习)、物理 AI 转型(智能体等)。英伟达架构能同时支持这三项转型。
业务进展与展望:
数据中心:需求超出预期,云服务厂商的 AI GPU 售罄,各代 GPU 产品线(包括 Blackwell、Hopper 及 Ampere)满负荷运转;
网络业务:营收 82 亿美元,同比增长 162%;NVLink 规模化部署的启动,Spectrum X 以太网(spectrum ex Ethernet)与 Quantum X InfiniBand 产品均实现强劲的两位数增长。
至于对 2026 年头部云服务提供商(CSP)及超大规模云服务商的预期,其总资本支出(CapEx)持续增长,目前已达到约 6000 亿美元,较年初增加了 2000 多亿美元。当前超大规模云服务商的工作负载中,向生成式人工智能领域加速计算的转型,约占公司长期机遇的一半。
产品进展:
Blackwell 产品:第三季度势头强劲,GB300 的出货量超越了 GB200,贡献 Blackwell 总收入约三分之二;向 GB300 过渡顺利,主要云服务提供商已接收量产出货。
Blackwell Ultra 的训练速度比 Hopper(平台)快 5 倍;Blackwell 在所有模型及用例下均实现了最高性能,同时拥有最低的总拥有成本(TCO)。
Hopper 产品:本季度季度营收约达 20 亿美元。H20 产品本季度销售额约为 5000 万美元;受地缘政治因素及中国市场竞争日益激烈的影响,多笔大额采购订单未能兑现。尽管当前形势导致我们无法向中国市场运送更具竞争力的数据中心计算产品,公司仍致力于与美国和中国政府持续沟通协作。
Rubin 产品:将于 2026 年下半年启动量产。Vera Rubin 平台由 7 颗芯片驱动,相较于 Blackwell(平台),其性能将再次实现突破性提升。目前公司已从供应链合作伙伴处收回硅片,并顺利推进调试工作。
Rubin 平台是公司的第三代 RAC 规模级系统,在提升性能的同时,仍保持与 Grace Blackwell 平台的兼容性。公司已为 Rubin 平台的快速量产爬坡做好准备。
NVLink Fusion:富士通(Fujitsu)达成战略合作,双方将通过 NVLink Fusion 技术整合富士通的中央处理器(CPU)与英伟达的图形处理器(GPU),以连接彼此庞大的生态系统。
公司还宣布与英特尔(Intel)开展合作,共同研发多代定制化数据中心及个人电脑(PC)产品,并借助 NVLink 技术连接英伟达与英特尔的生态系统。
ARM 也宣布将整合 NVLink 技术授权(IP),供客户打造可连接英伟达 GPU 的 CPU 系统级芯片(SoC)。
大多数不具备 CUDA 技术及英伟达经时间验证的通用架构的加速器,会随着模型技术的演进,在短短几年内就被淘汰。而得益于 CUDA 技术,公司 6 年前出货的 A100 GPU 仍在满负荷运行。
AI 生态与合作:
OpenA 的合作:核心是帮助其建设并部署至少 10 千兆瓦规模的 AI 数据中心,还有机会对该公司进行投资。目前公司正推进达成一份最终协议。
公司通过 OpenAI 的云服务合作伙伴 —— 微软 Azure(Microsoft Azure)、甲骨文云基础设施(OCI)及 CoreWeave—— 为其提供服务。在可预见的未来,公司将继续保持这一合作模式。
Anthropic 的合作:首次采用英伟达技术,将针对 CUDA 技术优化 Anthropic 的模型,从而实现最佳的性能、效率与总拥有成本(TCO)。初始算力承诺包含 1GW 的算力容量,将基于 Grace Blackwell 与 Vera Rubin 系统实现。
新客户与合作伙伴: 本季度,公司宣布的 AI 工厂及基础设施项目合计涉及 500 万块 GPU。这类需求覆盖各类市场主体,包括主权国家相关机构、新型算力建设方、企业及超级计算中心,其中还包含多个具有里程碑意义的建设项目——例如 XAI 的 Colossus 2,以及礼来制药(Lilly)用于药物研发 AI 工厂。
亚马逊云科技(AWS)与 Humane 公司扩大了合作范围,其中包括部署至多 15 万台 AI 加速器(含我方 GB300 芯片);此外,X AI 与 Humane 也宣布建立合作关系,双方将联合打造全球一流的 GPU 数据中心网络,该网络将以一座 500 兆瓦的旗舰数据中心为核心;
物理人工智能(Physical AI):已成为英伟达一项数十亿美元规模的业务,为其下一阶段增长带来了数万亿美元规模的机遇。与 PTC、西门子、百德、卡特彼勒等企业合作,构建 Omniverse 数字孪生工厂;Agility Robotics、亚马逊机器人等基于英伟达平台开发智能机器人。
供应链与制造:与台积电合作生产美国本土 Blackwell 晶圆;未来四年与富士康、纬创等扩大美国业务。
第四季度展望:
总营收预计 650 亿美元(上下浮动 2%);GAAP 和非 GAAP 毛利率分别为 74.8% 和 75%(波动±50 个基点)。与上季度一致,公司未将来自中国市场的任何数据中心计算业务营收纳入本季度预期。GAAP 和非 GAAP 运营支出分别约 67 亿美元和 50 亿美元。GAAP 和非 GAAP 其他收支(不含非流通及公开持股证券损益)预计将产生约 5 亿美元收益。有效税率预计 17%(±1%)。不含任何特殊项目。
2027 财年展望:尽管成本在上升,公司努力将毛利率维持在 75% 左右,;
其他重要论述:
对 AI 泡沫的回应:英伟达与其他任何加速器厂商都不同,公司在 AI 的每个阶段都表现出色,无论是预训练、训练后处理还是推理。而且,凭借 20 年来在 CUDA X 加速库上的投入,公司在科学与工程仿真、计算机图形学、结构化数据处理以及传统机器学习等领域,同样具备出众的实力。
2.2Q&A 问答
Q:之前提到 Blackwell 和 Ruben 架构在 2025 和 2026 年将创造 5000 亿美元收入,其中 1500 亿已发货。本季度结束后,是否仍预期在未来约 14 个月内实现约 3500 亿美元收入?
这些数字是否存在上行可能?
A:是的,我们正按计划实现 5000 亿美元的预测,并已完成了部分季度的目标。本季度我们发货了 500 亿美元,未来几个季度将持续推进至 2026 年底。这个数字将会增长,公司确信在 2026 财年还将满足更多可发货的计算需求。例如,公司与 KSA 的协议就在 3 年内新增了 40 万至 60 万个 GPU,Anthropic 也是全新需求。因此,我们明确有机会在已公布的 5000 亿美元基础上获得更多收入。
Q:鉴于对 AI 基础设施建设规模、融资能力及投资回报率的担忧,同时 GPU 供不应求,且新一代技术(如 B300、Rubin)的巨大效益尚未完全显现,供应是否能在未来 12-18 个月内赶上需求?抑或这一情况将持续更久?
A:我们在供应链规划方面做得非常出色,与台积电、内存供应商及系统 ODMs 等全球技术公司密切合作,并为重大年度做好了计划。我们目睹的三大转型——从通用计算向加速计算、生成式 AI 取代传统机器学习、以及全新的智能体范畴——正在同步推进。所有这些应用都在 NVIDIA GPU 上运行并得到加速。同时,由于 AI 模型质量飞速提升,其在各用例中的采用(如代码辅助、医疗、视频编辑等)正急剧增长。这些指数级增长因素同时发挥作用,回归第一性原理,审视前述每个动态的进展至关重要。
Q:在 5000 亿美元收入预测中,对每 GW 装机中英伟达设备价值的假设是多少?
从长期看,您提到 2030 年数据中心规模将达 3-4 万亿美元,其中有多少需要供应商融资?
多少能由大客户、政府或企业的现金流支持?
A:每一代产品中,我们在数据中心的价值都在增加。Hopper 世代大约在 200-250 亿美元/GW,Blackwell 世代(尤其是 Grace Blackwell)约为 300 亿美元左右/GW,Rubin 世代则会更高。每一代的性能提升都是数倍,客户总拥有成本也相应改善。最关键的是,数据中心功率有限(如 1 吉瓦),因此每瓦性能(能效)至关重要,这直接决定了收入。我们通过全栈协同设计来优化能效。
关于融资问题,客户的融资方式由他们自行决定。目前大部分投资集中在超大规模企业,这些投资主要由其现金流支持。投资英伟达 GPU 不仅通过加速计算替代通用计算来降低成本(摩尔定律已放缓),还能通过生成式 AI 升级推荐系统等方式提升现有业务收入。在此之上的智能代理 AI 则是全新的应用和消费,这些也是历史上增长最快的应用。此外,每个国家将资助自身的基础设施,全球众多行业(如自动驾驶、数字孪生工厂、生物科技)才刚刚开始应用智能 AI,它们会自行筹资。不要仅从超大规模企业的角度看待未来建设。
Q:关于未来几年可能产生的约 0.5 万亿美元自由现金流,您计划如何运用?多少用于股票回购,多少用于投资生态系统?您如何进行生态系统投资?
外界对这些交易(如对 Anthropic、OpenAI 的投资)的运作方式和标准存在困惑。
A:首先,我们需要强大的资产负债表来支持增长和确保有韧性的供应链,这是我们客户依赖我们的基础。其次,我们将继续进行股票回购。
关于投资,我们所做的所有投资都与扩展 CUDA 生态系统相关。以对 OpenAI 的投资为例,我们自 2016 年起就建立了合作关系,旨在深化技术合作以支持其快速增长,并共同开发生态系统。作为投资回报,我们获得了该公司的股份,这是一家具有划时代意义的智能代理公司,我们预期这将带来非凡的回报。
再以 Anthropic 为例,这是首次将其引入英伟达架构。通过此次深度合作,公司将把 Anthropic 的 Cloud 平台引入英伟达生态系统。
我们的投资逻辑是:英伟达平台是全球唯一能运行所有 AI 模型的平台。我们通过生态投资,与世界上一流的公司进行深度技术合作,这既扩展了我们生态系统的覆盖范围,也让我们得以投资于这些往往具有划时代意义的、未来非常成功的公司,并持有其股份。这就是我们的投资策略。
Q:过去您提到约 40% 的发货量与 AI 推理相关。展望明年,您预计该比例将如何变化?
此外,您能否谈谈预计明年推出的 Rubin CPX 产品,及其可能占据的整体市场规模(TAM),以及该产品的目标客户应用?
A:关于推理,三大扩展法则(预训练、后训练、推理)正同步发挥作用。推理因思维链和推理能力,其计算需求已呈指数级增长。很难精确预测任何时间点上的具体百分比,但我们希望推理能成为市场的很大组成部分,因为这意味着人们正在更多应用和更频繁地使用它。我们的 Grace Blackwell 平台在这方面领先世界一个数量级,GB200 和 GB300 凭借 NVLink 72 实现了 10 到 15 倍的性能提升,我们在此领域的领导地位无疑是多年的。
关于 Rubin CPX,它专为长上下文工作负载生成而设计。这类工作负载需要先吸收大量上下文信息,可能是一批 PDF、观看一系列视频、研究 3D 图像等。CPX 为此类工作负载设计,其每美元性能非常出色。
Q:许多客户在寻求自备电力,但什么是您最担心的、可能限制增长的最大瓶颈?是电力、融资,还是其他如内存或晶圆厂等问题?
A:这些都是问题,也都是制约因素。在我们这样的增长速度和规模下,没有任何事情是容易的。英伟达所做的是前所未有的事业,我们创造了一个全新的行业。一方面,我们正在将计算从通用计算和传统计算转向加速计算和 AI;另一方面,我们创造了一个名为 “AI 工厂” 的全新行业。
这整个转型需要巨大的规模,涉及从供应链到土地、电力、建筑乃至融资等方方面面。这些事情都不容易,但它们都具有吸引力并且都是可以解决的。我们对供应链部分很有信心,因为我们非常擅长管理供应链,并拥有合作了 33 年的优秀伙伴。
同时,我们也在土地、电力和融资等领域建立了许多合作伙伴关系,拥有多条市场通路。最重要的是,我们必须确保我们的架构能为客户提供最佳价值。目前,我非常有信心,英伟达的架构能提供最佳性能,对于任何给定的能源投入,我们的架构将驱动最高的收入。我们成功的速率在增加,选择我们的客户和平台数量在增加而非减少。
Q:关于明年毛利率目标维持在 75% 左右,最大的成本增长来自哪里?是内存还是其他因素?
你们将通过成本优化、预购还是定价等何种方式实现该目标?
另外,考虑到营收可能显著增长,应如何预期明年的运营支出(OpEx)增长?
A:我们已通过成本改善和产品组合优化,实现了本财年末毛利率达到 75% 左右的目标,并将在第四季度继续执行。展望明年,行业内的投入成本上涨是已知挑战,我们的系统包含大量复杂组件。通过持续致力于成本改善、周期时间缩短和产品组合优化,我们计划将毛利率维持在 75% 左右。关于运营支出,我们的目标是确保工程团队和所有业务团队能够持续创新,为市场开发更多系统。我们正忙于新架构的推出,因此将继续投入创新,充分利用这一竞争环境。在供应链方面,我们很早就与供应链伙伴进行预测、规划和谈判,由于长期合作且需求明确,我们已经为自己确保了大量的供应。
Q:随着 Anthropic 交易的宣布以及客户群的广泛,您对 AI 专用集成电路(ASIC)或专用 XPU 在架构建设中作用的看法是否发生变化?过去您认为这些项目难以真正部署,现在情况是否更倾向于 GPU 架构?
A:首先,作为公司,你是在与团队竞争,而世界上并没有那么多擅长构建如此复杂系统的团队。如今,构建一个 AI 系统远不止一颗芯片,它需要整个机架、三种不同类型的交换机(纵向扩展、横向扩展、跨平台扩展),并且 AI 现在需要巨大的内存和上下文容量,模型多样性也急剧增加。
问题的复杂性更高,AI 模型的多样性极大。我们的特殊性体现在五个方面:
第一,我们加速转型的每个阶段。CUDA 使我们能够从通用计算过渡到加速计算,我们在生成式 AI 和智能代理 AI 方面都非常出色。你可以投资一种架构,通用于所有场景,无需担心工作负载在不同阶段的变化。
第二,我们在 AI 的每个阶段都表现卓越。众所周知,我们非常擅长预训练,后训练也很出色,并且事实证明我们在推理方面也非常强大,因为推理实际上非常困难。
第三,我们是世界上唯一能运行所有 AI 模型的架构,包括每一个前沿 AI 模型、开源模型、科学模型、生物模型、机器人模型等。无论模型类型如何,我们都能运行。
第四,我们覆盖每一个云平台。开发者喜爱我们的原因在于我们无处不在,从云端到本地部署,再到机器人系统、边缘设备、个人电脑等。一种架构,处处适用,这非常了不起。
第五,也是最重要的一点,对于云服务提供商或新公司而言,选择英伟达平台是因为我们的需求来源极其多样化。我们能够帮助解决需求问题。这不仅仅是随意将一颗 ASIC 放入数据中心,而是关乎需求从何而来、多样性从何而来、韧性从何而来。我们架构的多功能性、能力的多样性,以及我们庞大的生态系统,带来了极其良好的需求。这五个方面——加速转型的每个阶段、AI 的每个阶段、每一种模型、从云到本地部署的覆盖,最终都导向了实实在在的需求。
本文的风险披露与声明:海豚君免责声明及一般披露