以 “AI” 为名的计算革命(英伟达 FY2Q24 电话会)

英伟达 (NVDA.O) 北京时间 8 月 24 日凌晨,美股盘后发布 2024 财年第二季度财报(截至 2023 年 7 月),电话会要点:

一、$ 英伟达(NVDA.US) 电话会增量信息

1)当前数据中心的转变:正在向加速计算和生成人工智能过渡。一个是加速计算,因为它是目前最具成本效益、最节能、最高效的计算方式;二是突然之间爆发的生成式人工智能——这个不可思议的应用程序现在给了每个人转变的理由;

2)游戏业务:Q2 和 Q3 可能会成为全年较强的季度,反映了笔记本电脑的返校和假日装机计划;

3)L40S:其实是为不同类型的应用而设计的。H100 是为大规模语言模型和处理而设计的,而这不是 L40S 的重点。L40S 的重点是对预训练模型进行微调;

4)当下趋势世界正在从通用计算向加速计算过渡对于企业来说,提高吞吐量、提高能效、提高成本效益的最佳途径就是将资本预算转向加速计算和生成式人工智能因为这样做,你就能从 CPU 上卸载大量工作负载,从而提高数据中心可用 CPU 的数量。生成式 AI 提供了一种提高生产力的新方式、一种生成为客户提供的新服务的新方式,而加速计算可帮助您节省资金和电力

二、$ 英伟达(NVDA.US) 电话会原文

2.1 管理层陈述

本季度总营收实现创纪录的 135.1 亿美元,同比增长 101%,环比增长 88%,超出 110 亿美元的预期。

数据中心业务部分,收入 103.2 亿美元,环比增长 141%,同比增长 171%。数据中心计算收入同比增长了近两倍,主要是由于云服务提供商和大型互联网公司对云服务需求的加速推动。对于生成式人工智能和大型语言模型引擎 HGX 平台,主要参与公司包括 AWS、GoogleCloud、Meta、Microsoft Azure 和 Oracle Cloud,以及日益增多的 GPU 云提供商,他们正在大规模部署基于 Hopper 和 Ampere 架构的 HGX 系统。

网络收入同比增长了近两倍,这主要得益于端到端的 InfiniBand 网络平台——被视为人工智能的黄金标准。公司加速计算和人工智能平台的需求非常巨大。我们的供应合作伙伴在提高产能方面表现出色,以支持我们的需求。我们的数据中心供应链,包括拥有 35000 个零部件的 HGX 和高度复杂的网络,已经在过去十年内建立起来。我们还为制造过程的关键环节,如芯片封装,开发和认证了额外的产能和供应商。我们预计供应在明年每个季度都会增加。

按地理位置划分,数据中心的增长在美国最为强劲,因为客户将其资本投资指向人工智能和加速计算;

中国的需求在历史范围内保持在我们数据中心收入的 20% 到 25% 之间,包括计算和网络解决方案。关于加强对我们向中国出口的管制的最新报告,我们认为当前的管制正在取得预期的成果。考虑到我们产品在全球的强劲需求,如果对我们的数据中心 GPU 增加进一步的出口限制,我们预计不会立即对我们的财务业绩产生实质性影响。然而,从长远来看,如果实施禁止向中国销售我们的数据中心 GPU 的限制,将导致美国产业在全球最大市场之一中失去竞争和领导的机会。

本季度,我们的云服务提供商为 HGX 系统带来了异常强劲的需求,因为他们正在进行新一代的转型,以升级其数据中心基础设施,迎接加速计算和人工智能的新时代。英伟达 HGX 平台是近二十年来跨芯片、系统、互连、网络、软件和算法的全堆栈创新的顶峰。由 英伟达 H100 Tensor Core GPU 提供支持的实例现已在 AWS、Microsoft Azure 和多家 GPU 云提供商处全面上市,其他提供商也将很快推出。

消费互联网公司也带动了非常强劲的需求。他们对专门为人工智能构建的数据中心基础设施的投资已经产生了可观的回报。例如,Meta 最近强调,自从推出 Reels 以来,人工智能推荐使 Instagram 上花费的时间增加了 24% 以上。

企业在竞相部署生成式 AI,推动云英伟达 支持的上云实例中的强劲消耗以及对本地基础设施的需求。无论我们通过合作伙伴还是直接在云端或本地为客户提供服务,他们的应用程序都可以在 英伟达 AI 企业软件上无缝运行,并可以访问我们的加速库、预训练模型和 API。

我们宣布与 Snowflake 建立合作伙伴关系,为企业提供使用自己的专有数据创建定制生成人工智能应用程序的加速路径,所有这些都安全地在 Snowflake 数据云中进行。借助用于开发大型语言模型的 英伟达 NeMo 平台,企业将能够直接从 Snowflake 数据云为高级 AI 服务(包括聊天机器人、搜索和摘要)制作定制 LLM。

事实上,每个行业都可以从生成式人工智能中受益。例如,微软刚刚发布的 AI Copilot 可以提高超过 10 亿上班族和数千万软件工程师的生产力。法律服务、销售、客户支持和教育领域的数十亿专业人士将可以利用在其领域接受过培训的人工智能系统。AI Copilot 和助手将为我们的客户创造新的数千亿美元的市场机会。

我们看到了生成式人工智能在营销、媒体和娱乐领域的一些最早的应用。全球最大的营销和传播服务组织 WPP 正在使用 英伟达 Omniverse 开发内容引擎,使艺术家和设计师能够将生成式 AI 集成到 3D 内容创作中。WPP 设计师可以根据文本提示创建图像,同时使用 英伟达 Picasso(一家为视觉设计定制生成 AI 模型的代工厂)提供经过负责任培训的生成式 AI 工具以及来自 Adobe 和 Getty Images 等 英伟达 合作伙伴的内容。

视觉内容提供商 Shutterstock 还使用 英伟达 Picasso 构建工具和服务,使用户能够借助生成式 AI 创建 3D 场景背景。我们与 ServiceNow、埃森哲合作推出 AI Lighthouse 计划,快速跟踪企业 AI 能力发展。AI Lighthouse 将 ServiceNow 企业自动化平台和引擎与 英伟达 加速计算以及埃森哲咨询和部署服务相结合。我们还与 Hugging Face 合作,简化企业新的自定义人工智能模型的创建。Hugging Face 将为企业提供一项新服务,用于训练和调整由 英伟达 HGX 云支持的高级 AI 模型。就在昨天,VMware 和 英伟达 宣布推出一项名为 VMware Private AI Foundation with 英伟达 的重要新企业产品,这是一个完全集成的平台,采用 英伟达 的 AI 软件和加速计算功能,并为运行 VMware 的企业提供多云软件。VMware 的数十万企业客户将能够访问自定义模型和运行智能聊天机器人、助手、搜索和摘要等生成式 AI 应用程序所需的基础设施、AI 和云管理软件。

我们还宣布了新的英伟达 AI 企业级服务器,配备了新的英伟达 L 40 s GPU,专为行业标准的数据中心服务器生态系统和 BlueField 3 DPU 数据中心基础设施处理器而设计。L40s 不受芯片供应(Cowos)限制,正在发货给全球领先的服务器系统制造商。L40S 是一个通用的数据中心处理器,专为高容量数据中心扫描和加速最计算密集的应用程序,包括 AI 训练和发明审查、设计可视化、视频处理以及英伟达 Omniverse 工业可视化。

英伟达 AI 企业级服务器已经完全优化了 Vmware Cloud Foundation 和 Private AI Foundation。近 100 种配置的英伟达 AI 企业级就绪服务器将很快由世界领先的企业 IT 计算公司提供,包括戴尔、HP 和 Lenovo。

GH200 Grace Hopper 超级芯片将我们的基于 ARM 的 Grace CPU 与 Hopper GPU 结合起来,已经开始量产并将在本季度在 OEM 服务器上提供。英伟达和软银正在合作开发基于 GH200 的平台,用于生成式 AI 和 5G60 应用。我们的第二代 Grace 超级芯片将于 2024 年第二季度推出,配备最新的 HBM 3e 内存

我们宣布了 GGX GH200,这是一种新型的大内存 AI 超级计算机,用于巨大的 AI 语言模型推荐系统和数据分析。这是新的英伟达 NV 链接交换系统的首次应用,使其 256 个 Grace Hopper 超级芯片能够共同工作,与我们之前一代相比,这是一个巨大的飞跃。预计 BGX GH200 系统将于年底前推出,谷歌云、Meta 和微软将成为首批获得访问权限的企业。

强劲的网络增长主要得益于 InfiniBand 基础设施,用于连接 HGX GPU 系统,由于其端到端的优化和网络计算能力。InfiniBand 为 AI 提供了超过传统以太网两倍的性能。对于数十亿美元的 AI 基础设施来说,通过 InfiniBand 提高的吞吐量价值数百万美元,足以支付网络费用。此外,只有 InfiniBand 才能扩展到数十万个 GPU。它是领先的 AI 从业者的首选网络,适用于以以太网为基础的云数据中心,旨在优化其 AI 性能。

我们再次宣布 英伟达 Spectrum X,这是一款加速的网络平台,旨在优化以太网用于 AI 工作流程。Spectrum X 将互联网交换机的光谱与 Blue Field 3 DPU 相结合,实现与传统以太网相比 1.5 倍的整体 AI 性能和功耗效率。Blue Field 3 DPU 取得了巨大成功,正在与主要 OEM 厂商进行验证,并在多家云服务提供商和消费互联网公司中逐步推广。

游戏业务方面,游戏收入为 24.9 亿美元,环比增长 11%,同比增长 22%,这得益于笔记本电脑和台式机上的 GeForce RTX 40 系列 GPU,客户需求坚实且符合季节性。我们相信全球需求在经历去年的放缓后已经恢复增长,我们面临着巨大的升级机会——我们安装基数中仅有 47% 进行了 RTX 升级,约 20% 的用户拥有 RTX 30、60 或更高性能的 GPU。

笔记本电脑 GPU 在关键的返校季实现了强劲增长,其中以 RTX 40、60 系列为主导。搭载 GPU 的笔记本电脑变得越来越受欢迎,并且在全球多个地区的出货量现在已经超过了台式机 GPU。这可能会改变我们整体游戏收入的季节性,Q2 和 Q3 可能会成为全年较强的季度,反映了笔记本电脑的返校和假日装机计划

在台式机方面,我们推出了 GeForce RTX 4060 和 GeForce RTX 4060 Ti GPU,将 Ada Love Lace 架构的价格降至 299 美元。RTX 和 DLSS 游戏生态系统继续扩大。新增了 35 款支持 DLSS 的游戏,包括《暗黑破坏神 4》和《炉石传说:焰尘战记》等畅销游戏。现在有超过 330 款支持 RTX 加速的游戏和应用程序。我们正在将生成式 AI 应用于游戏。在 Computex 上,我们宣布了面向游戏的 英伟达 Avatar CloudEngine 8,这是一个定制的 AI 模型工厂服务。开发人员可以使用该服务赋予非玩家角色智能。它利用了多个 英伟达 Omniverse 和 AI 技术,包括 Email、Reva 和 audioto face。

专业可视化方面,收入为 3.75 亿美元,环比增长 28%,同比下降 24%。Ada 架构的推出带动了强劲的增长,首先在笔记本工作站上进行了更新,台式机工作站的更新将于 Q3 推出。这些系统将配备高达四颗 英伟达 RTX 6000 GPU,提供超过 5800 特拉弗的 AI 性能和 192GB 的 GPU 内存。它们可以配置 英伟达 AIEnterprise 或 英伟达 Omniverse Enterprise。我们还宣布了三款基于 Ada 架构的新台式机工作站 GPU,即 英伟达 RTX5000 和 4000,相较上一代,RT 核心吞吐量提升了最多 2 倍,AI 训练性能提升了最多 2 倍。除了传统的 3D 设计和内容创作工作负载外,新的工作负载和生成式 AI 大语言模型的开发以及数据科学正在扩大我们的 RTX 技术在专业可视化领域的机会。

汽车业务方面,收入为 2.53 亿美元,环比下降 15%,同比增长 15%。基于智能驾驶或与许多新能源汽车制造商相关的自动驾驶平台的崛起推动了同比的稳健增长。环比下降反映出整体汽车需求下降,尤其是在中国。我们宣布与联发科技合作,为驾驶员和乘客带来全新的车内体验。联发科将开发汽车 SoC 并整合 英伟达 GPU 小芯片的新产品线。此次合作涵盖从豪华车到入门级的广泛汽车领域。

FY2Q24 Guidance:

对我们的人工智能数据中心平台的需求是巨大的,跨行业和客户基础广泛。我们的需求可见性将延续到明年。在接下来的几个季度里,我们的供应将继续增加,因为我们缩短了周期时间,并与供应伙伴合作增加产能。此外,新的 L40s GPU 将有助于满足从云到企业的多种工作负载的不断增长的需求。

Q3 总营收预计为 160 亿美元,上下浮动 2%。我们预计季度增长主要由数据中心业务驱动,包括游戏等也有贡献

GAAP 和 Non-GAAP 毛利率预计分别为 71.5% 和 72.5%,上下浮动 50 个基点。

GAAP 和 Non-GAAP 运营费用预计分别约为 29.5 亿美元和 20 亿美元。

GAAP 和 Non-GAAP 其他收入和费用预计将是一项大约发展收入,不包括非效应投资的损益。

预计 GAAP 和 Non-GAAP 税率将增加 14.5%±1%,不包括任何离散项目。

2.2 Q&A

Q1:如何看待小模型推理和大模型推理之间的推理市场细分?产品组合是如何定位的?

A1:大型语言模型是相当惊人的。LLM 做了几件事,它有理解非结构化语言的能力,但它学到的核心是人类语言的结构。它已经编码或压缩了大量的人类知识,这些知识是它通过研究的语料库学到的。

现在情况是,你尽可能地创建大型语言模型,然后你从它推导出模型的小版本。所以当你看到这些较小的模型时,很可能它们是从更大的模型中衍生出来的,或者是从更大的模型中提炼出来的,或者是从更大的模型中学习来的,就像教授,老师和学生之间的关系。

一方面,你从一个非常大的模型开始有大量的一般性和泛化能力,因此对于很多你没有专门训练它的应用、问题或技能,这些大型语言模型奇迹般地有能力执行,这就是所谓的 Zero-Shot。

另一方面,您希望在各种计算设备中都具有这些功能,因此您要做的就是将它们提炼出来。这些较小的模型可能在特定技能上具有出色的能力,但也不能概括为它们不具备所谓的良好的 Zero-shot 能力。因此,它们都有自己独特的功能,但这一定是从非常大的模型开始的。

Q2:明年增量供应上线情况?未来一到两年内,这种需求的可持续性如何?

A2:我们确实希望在接下来的几个季度以及下一财年继续增加供应,但是现在难以量化表示。这是一项跨越许多不同供应商的工作,但我们对供应商给予支持以及我们与他们一起花了很长时间来改善供应感到非常高兴。全世界大约有价值 1 万亿美元的数据中心安装在云端、企业和其他地方。这一万亿美元的数据中心正在向加速计算和生成人工智能过渡。我们同时看到两个平台的转变——

一个是加速计算,因为它是目前最具成本效益、最节能、最高效的计算方式。

二是突然之间爆发的生成式人工智能——这个不可思议的应用程序现在给了每个人转变的理由,从通用计算、传统的计算方式到这种新的加速计算,做一个平台的转变。

数据中心每年大约有 2500 亿美元的资本支出,本季度 QSP 收入占比 50%,接下来是消费互联网公司 / 企业 / 高性能计算。世界各地的数据中心正在利用这些资本支出,并将其集中在当今计算的最重要的趋势上,即生成式人工智能中的加速计算。所以我认为这不是一个短期的事情,这是一个长期的行业转型。

Q3:数据中心内部的分部发展情况?定价与未来增长的联系?

A3:在本季度,我们的 HGX 系统是数据中心的重要组成部分,实现了数据中心的增长,包括 Hooper 和 Ampere 架构。

DGX 始终是我们将出售的附加系统的重要部分,这对企业客户和许多其他不同类型的客户来说都是巨大的机会,我们甚至在消费者互联网公司中也看到了这一点。现在,我们与 DGX 一起销售的软件也很重要,这是我们销售的一部分。

至于其余的 GPU,我们有新的 GPU 进入市场,包括我们谈论的 L40s 将继续增长向前。但我们上个季度营收的最大驱动力绝对是 HGX 系统。

Q4:软件生态系统的发展策略和现状?公司的投入和地位如何?

A4:英伟达 AI Enterprise 是几乎每个公司都使用的端到端的机器学习,从数据处理、任何模型的训练,你可以在任何框架上做推理和部署。我们在现场有数亿个 gpu,在云中也有数百万个 gpu,几乎在每一个云上都有。它可以在单个 GPU 配置中运行,也可以在每个计算或多个节点上运行多个 GPU。它也有多个应用程序、多个会话或每个 GPU 多个计算实例。从每个 GPU 多个实例到多个 GPU,从多个节点到整个数据中心规模。英伟达 AI Enterprise 有大约 4500 个软件包和软件库,彼此之间有大约 10000 个依赖项。我们不断更新和优化我们的安装基础和堆栈,而这只是让加速计算发挥作用的一个例子。

代码组合的数量和应用程序组合的类型确实非常疯狂。我们花了二十年才走到这一步。但我想描述的可能是我们公司的元素:

第一,也是最重要的是架构。我们架构的灵活性、多功能性和性能使我们能够做我刚才说的所有事情,从数据处理到训练再到推理,从数据的预处理到数据的后处理、语言的标记化,这样你就可以用它来训练。工作流程的工作量比仅仅训练或推理要大得多。但无论如何,这是人们关注的地方。当人们真正使用这些计算系统时,它需要很多应用程序。因此,我们的架构组合使我们能够交付最低的拥有成本,原因是我们加速了很多不同的东西。

第二是安装基础。为什么所有的软件开发人员都来到我们的平台?这样做的原因是因为,软件开发人员寻求一个大的安装基础,这样他们就可以接触到最大数量的最终用户,这样他们就可以建立业务或从他们的投资中获得回报。

第三是可触及性。我们今天在云上,面向公共云,因为我们有很多客户,他们使用很多开发人员,也有很多客户使用我们的平台,云计算服务提供商很高兴把它放在云上,供用户内部消费、开发、培训和操作推荐系统、搜索或数据处理引擎等等,一直到训练和推理,所以我们在云上。

影响力是另一个原因。昨天我们宣布了与 Vmware 的合作——它是全球企业的操作系统,我们已经合作了好几年,我们将一起努力,将为全球企业带来生成式人工智能。由于覆盖范围广,世界上所有的系统制造商都急于在他们的系统中加入英伟达平台。因此,我们有一个非常广泛的分布,从世界上所有的 OEM 和 ODM 中都有。

最后,由于我们的规模和速度,我们能够在所有这些不同的使用模式和不同的计算环境中维持这个真正复杂的软件和硬件,网络和计算堆栈。我们可以在加快工程速度的同时做到这一切。我们现在每两年就会推出一个新的架构。我们每六个月就会推出一个新的产品。因此,这些属性使得生态系统能够在我们之上建立他们的公司和业务。这些结合在一起使我们与众不同。

Q5:不需要 CoWos 的 L40S 对解决供应紧张有多大帮助?该产品对利润有何贡献?

A5:L40S 其实是为不同类型的应用而设计的H100 是为大规模语言模型和处理而设计的,而这不是 L40S 的重点L40S 的重点是对预训练模型进行微调。它有一个 Transformer 引擎,性能强大,可以在一台服务器中使用多个 GPU。它专为超大规模扩展而设计,这意味着可以轻松地将 L40S 服务器安装到全球的超大规模数据中心。它采用标准机架、标准服务器,一切都符合标准,因此它很容易安装。L40S 是为全球企业 IT 系统设计的,这也是惠普、戴尔、联想和其他 20 家系统制造商与我们合作的原因,他们构建了约 100 种不同配置的企业服务器,将生成式人工智能带入全球企业。

总之,L40S 确实是为不同类型的扩展而设计的。当然依旧是大模型,也是生成式人工智能,但它的用例不同。现在 L40S 有了一个良好的开端,全球企业和超大规模企业都在争相部署 L40S。

Q6:当下需求缺口情况如何?

A6:我们对今年和明年的情况非常了解。我们已经在与领先的 CSP 和数据中心建设者一起规划下一代基础设施。

对需求最简单的理解是,世界正在从通用计算向加速计算过渡。对于企业来说,提高吞吐量、提高能效、提高成本效益的最佳途径就是将资本预算转向加速计算和生成式人工智能因为这样做,你就能从 CPU 上卸载大量工作负载,从而提高数据中心可用 CPU 的数量。你现在看到的公司正在认识到这一转变的开始,并将其资本投资转向加速计算和生成式人工智能。

这不是一个单一的应用在驱动需求,而是一个新的计算平台,一个正在发生的新的计算转型。世界各地的数据中心都在对此做出响应,并以广泛的方式进行转变。

Q7:本季度 CSP 和消费互联网业务占比如何?

A7:把计算和网络结合在一起来看的话,我们的大型 CSP 对第二季度收入的贡献略高于 50%,其次是消费互联网公司,最后是企业和高性能计算公司。

Q8:如何理解——拥有足够的广度和深度来支持数据中心业务的持续增长?

A8:我不愿意猜测未来,我将首先从计算机科学原理的角度来回答这个问题。一段时间以来,人们认识到通用计算并不是强制通用计算。大规模使用通用计算不再是前进的最佳方式。它的能源成本太高,太昂贵,而且应用程序的性能太慢。最后,世界有了一种新的实现方式——所谓的加速计算,而推动它加速发展的是生成式人工智能。但加速计算可用于数据中心已有的各种不同应用程序。通过使用它,您可以减轻 CPU 的负担。您可以节省大量资金、成本和能源,并且吞吐量更高,这就是行业真正的反应。

展望未来,投资数据中心的最佳方式是将资本投资从通用计算上转移出来,集中到生成式人工智能和加速计算上。生成式 AI 提供了一种提高生产力的新方式、一种生成为客户提供的新服务的新方式,而加速计算可帮助您节省资金和电力。申请的数量是惊人的。很多开发人员、很多应用程序、很多库都已准备好部署。

因此,我认为世界各地的数据中心都认识到这一点,这是部署资源、为数据中心部署资本的最佳方式。对于全世界的云来说都是如此,您会看到一大批新的 GPU 专业——GPU 专业云服务提供商。其中著名的公司之一是 CoreWave,他们做得非常好。但您现在看到的区域 GPU 专业服务提供商遍布世界各地。正是因为他们都认识到同一件事,未来投资资本的最佳方式是将其投入加速计算和生成人工智能。

我们也看到企业希望这样做。但为了让企业做到这一点,你必须支持企业的管理系统、操作系统、安全性和软件定义的数据中心方法,而这就是 VMware。我们多年来一直与 VMware 合作,使 VMware 不仅支持 CPU 虚拟化,还支持 GPU 虚拟化以及 GPU 的分布式计算能力,支持英伟达的 BlueField 高性能网络。

我们一直在开发的所有生成式 AI 库现在都将由 VMware 销售人员作为特殊 SKU 提供,众所周知,该销售人员规模相当大,因为它们覆盖了全球数十万 VMware 客户。世界。这个新的 SKU 将被称为 VMware Private AI Foundation。而这将是一个让企业成为可能的新 SKU。结合惠普、戴尔和联想基于 L40S 的新服务器产品,任何企业都可以拥有最先进的人工智能数据中心,并能够参与生成式人工智能。

因此,我认为这个问题的答案是,很难准确预测每个季度会发生什么。但我认为现在我们看到了平台的转变,趋势非常非常明显。

Q9:网络解决方案与交付的计算的相关率?是否有一半的计算采用了网络解决方案?是否利用这一点来确定 GPU 分配的优先级?

A9:我们不会用它来优先分配 GPU。我们让客户自己决定使用什么网络。对于那些正在建设大型基础设施的客户来说,Infiniband 是不二之选,因为 Infiniband 的效率非常高,其吞吐量可提高 10-20%,这对于价值 10 亿美元的基础设施而言可以节省大量成本。基本上,联网是免费的。因此,如果您有一个主要用于大型语言模型或大型人工智能系统的单一应用程序,InfiniBand 确实是一个不错的选择。

但是,如果你要为很多不同的用户提供主机服务,而以太网又是你管理数据中心的核心,那么我们最近刚刚发布了一个出色的解决方案,叫做Spectrum-X,它能把 InfiniBand 的一些功能带到以太网中,这样,我们还能让你在以太网环境中获得出色的人工智能生成功能。

Q10:关于 DGX 云,能否谈谈您所看到的客户的接收情况以及势头如何?

A10:DGX 云战略的几个好处:

1)我们与全球 3 万家公司合作,其中 1.5 万家是初创公司,数千家是生成式人工智能公司。其中,增长最快的当然是生成式人工智能。我们正在与全球所有的人工智能初创公司合作。最终,他们都希望能够登陆世界领先的云计算平台。因此,我们建立了 DGX 云,作为世界领先的一个云足迹,这样我们就可以同时与所有人工智能合作伙伴合作,帮助他们轻松登陆我们的云合作伙伴之一。

2)实现我们与全球 CSP 之间真正紧密的合作关系,提高超大规模云的性能。超大规模云在历史上是为多租户设计的,现在则是为高性能分布式计算(如生成式人工智能)设计的。现在我们和 CSPs 能够在架构上密切合作、工程师携手合作提高网络性能和计算性能 - 这真的非常强大,非常了不起。

3)英伟达自己也使用非常庞大的基础设施。我们的自动驾驶汽车团队、生成式人工智能团队、大模型团队都需要大量的基础设施。如果没有我们的 DGX 系统,我们的优化编译器就不可能实现,因为如今即使是编译器也需要人工智能,而优化软件和基础架构软件的开发也需要人工智能。众所周知,我们的工程设计使用人工智能来设计芯片。我们的机器人团队、全宇宙团队等等,都需要人工智能。因此,我们的内部消耗也相当大,我们将其部署在 DGX 云中。因此,DGX 云有多种用例、多种驱动力,而且取得了巨大成功。我们的 CSP 喜欢它,开发人员喜欢它,我们自己的内部工程师也争相使用它。

现在,我们看到软件业务每年可能有数亿美元的收入,我们正在考虑将英伟达 AI Enterprise 纳入我们销售的许多产品中,例如 DGX,例如 H100 的 TCIE 版本。我认为,即使有了 CSP 市场,我们也会看到更多的可用性。因此,我们有了一个良好的开端,我相信你们会看到这一势头继续向前发展。

本文的风险披露与声明:海豚投研免责声明及一般披露