人工智能的第一波浪潮 (英伟达 3QFY24 电话会)

英伟达 (NVDA.O) 北京时间 11 月 22 日凌晨,美股盘后发布 2024 财年第三季度财报(截至 2023 年 10 月),电话会要点如下:

1.英伟达电话会增量信息:

1)数据中心业务的收入可见度:能够在 2025 年之前保持增⻓;

2)⽣成式⼈⼯智能的浪潮:从初创公司和通信服务提供商开始转向消费者互联⽹公司,转向企业软件平台,转向企业公司;

3)美国限制政策影响:对中国和其他受影响⽬的地的销售源⾃⽬前需要遵守许可要求的产品,⼀直贡献了数据中⼼收⼊的约 20% ⾄ 25%。

2.$ 英伟达.US 电话会原文

2.1 管理层陈述

第三季度⼜是创纪录的季度。营收达 181 亿美元,环⽐增⻓ 34%,同⽐增⻓超过 200%

远⾼于我们 160 亿美元的预期。从数据中⼼开始,基于 Hopper Tensor Core GPU 架构的 NVIDIA HGX 平台的持续增⻓,以及 InfiniBand 和⽹络,推动数据中心收⼊创纪录地达到 145 亿美元,环⽐增 ⻓ 41%,同⽐增⻓ 279%。 NVIDIA HGX 与 InfiniBand 本质上是 AI 超级计算机和数据中⼼基础设施的参考架构。⼀些最令⼈兴奋的⽣成式 AI 应⽤程序都是在 NVIDIA 上构建和运⾏的,包括 Adobe Firefly、ChatGPT、Microsoft 365 Copilot、Zoom AI Companion 等。

我们的数据中⼼计算收⼊⽐去年增⻓了四倍,⽹络收⼊⼏乎增⻓了两倍。对训练和推理⼤型语⾔模型、深度学习、推荐系统和⽣成式 AI 应⽤的基础设施的投资正在推动对 NVIDIA 加速计算的⼴ 泛强劲需求。推理现在是 NVIDIA AI 计算的主要⼯作负载。

消费互联⽹公司和企业在第三季度推动了惊⼈的环⽐增⻓,约占我们数据中⼼收⼊的⼀半,并且超过了总体增⻓。

Adobe、Databricks、Snowflake 和 ServiceNow 等企业软件公司正在向其平台添加 AI 副驾驶和助理。

本季度我们数据中⼼收⼊的另⼀半。所有超⼤规模 CSP 以及全球范围内⼀系列新的 GPU 专⽤ CSP 的需求都很强劲,这些 CSP 正在快速增⻓,以应对 AI 领域的新市场机遇 NVIDIA H100 Tensor Core GPU 实例现在⼏乎在每个带有实例的云中都可⽤需求量很⼤。今年每个季度我们都⼤幅增加供应,以满⾜强劲的需求,并预计明年将继续这样做。

我们还将有更⼴泛、更快的产品发布节奏,以满⾜不断增⻓和多样化的⼈⼯智能机会。本季度末,美 国政府宣布了⼀套针对中国和其他市场(包括越南和某些中东国家)的新出⼝管制法规。 这些法规要求我们的许多产品获得出⼝许可证,包括我们的 Hopper 和 Ampere 100 和 800 系列以 及其他⼏种产品。在过去的⼏个季度中,我们对中国和其他受影响⽬的地的销售源⾃⽬前需要遵守许可要求的产品,⼀直贡献了数据中⼼收⼊的约 20% ⾄ 25%。

我们的训练集群包括超过 10,000 个 H100 GPU,⽐ 6 ⽉份增加了 3 倍,反映出⾮常⾼效的扩展。⾼效扩展是⽣成⼈⼯智能的关键要求,每年都在以⼀个数量级增⻓。 Microsoft Azure 在 ⼏乎相同的集群上取得了类似的结果,展⽰了 NVIDIA AI 在公共云部署中的效率。⽬前,⽹络业务 的收⼊已超过 10 亿美元

我们的增⻓是由对 InfiniBand 的特殊需求推动的,该需求同⽐增⻓了五倍。 InfiniBand 对于获得 培训 LLM 所需的规模和性能⾄关重要。微软上周明确指出了这⼀点,强调 Azure 使⽤超过 29,000 英⾥的 InfiniBand 线路,⾜以绕地球⼀圈。我们正在将 NVIDIA ⽹络扩展到以太⽹领域。我 们全新的 Spectrum-X 端到端以太⽹产品采⽤专为 AI 打造的技术,将于明年第⼀季度推出,并得到 戴尔、HPE 和联想等领先 OEM ⼚商的⽀持。

与传统以太⽹产品相⽐,Spectrum-X 可以实现 AI 通信⽹络性能提⾼ 1.6 倍。我还要介绍⼀下我们 的软件和服务产品的最新情况,我们已经开始看到这些软件和服务产品的出⾊采⽤。我们有望以 10 亿美元的经常性软件⽀持和服务产品年化收⼊结束今年。我们看到了中期增⻓的两个主要机会,即 我们的 DGX 云服务和我们的 NVIDIA AI 企业软件。

游戏收⼊达 28.6 亿美元,环⽐增⻓ 15%,同⽐增⻓超过 80%,重要的返校购物季需求旺盛,NVIDIA RTX 光线追踪和 AI 技术现在价格低⾄ 299 美元。我们为游戏玩家和创作者带来了 有史以来最好的阵容。即使在 PC 市场表现低迷的背景下,游戏数量也⽐新冠疫情前的 ⽔平翻了⼀番。

ProViz 的收⼊为 4.16 亿美元,环⽐增⻓ 10%,同⽐增⻓ 108%。 NVIDIA RTX 是专业设计、⼯ 程和模拟⽤例的⾸选⼯作站平台,⽽⼈⼯智能正在成为强⼤的需求驱动⼒。早期应⽤包括⽤于 医疗保健中的 AI 成像的 IMP 以及智能空间和公共部⻔中的边缘 AI。我们推出了基于 NVIDIA RTX、Ada Lovelace、Generation GPU 和 ConnectX、SmartNIC 的全新桌⾯⼯作站系列,其 AI 处理、光线追踪和图形性能是前⼏代产品的 2 倍。

我们宣布在 Microsoft Azure 上提供两项⽤于汽⻋数字化的新 Omniverse 云服务:虚拟⼯⼚ 模拟引擎和⾃动驾驶汽⻋模拟引擎。转向汽⻋领域。收⼊为 2.61 亿美元,环⽐增⻓ 3%,同⽐ 增⻓ 4%,主要得益于基于 NVIDIA DRIVE Orin SoC 的⾃动驾驶平台的持续增⻓以及全球 OEM 客⼾的 AI 座舱解决⽅案的不断增⻓。我们扩⼤了与富⼠康的汽⻋合作伙伴关系,纳⼊了我们的下 ⼀代汽⻋ SoC NVIDIA Drive Thor。

富⼠康已成为电动汽⻋的 ODM。我们的合作伙伴关系为富⼠康提供了标准的 AV 传感器和计算 平台,供其客⼾轻松构建最先进、安全的软件定义汽⻋。现在,我们将把其余部分的损益表 GAAP ⽑利率扩⼤到 74%,⾮ GAAP ⽑利率扩⼤到 75%,这得益于数据中⼼销售额的增加和净库存储备的 减少,其中包括 1 个百分点的收益释放此前预留的 Ampere GPU 架构产品相关库存。

运营费⽤增⻓ 12%,⾮ GAAP 运营费⽤增⻓ 10%,主要反映了薪酬和福利的增加。

FY2Q24 Guidance:

总收⼊预计为 200 亿美元,上下浮动 2%。我们预计数据中⼼将推动强 劲的连续增⻓,以及对计算和⽹络的持续强劲需求。游戏可能会连续下降,因为它现在更符合笔记本 电脑的季节性。

GAAP 和⾮ GAAP ⽑利率预计分别为 74.5% 和 75.5%,上下浮动 50 个基点。 GAAP 和⾮ GAAP 运营费⽤预计分别约为 31.7 亿美元和 22 亿美元。

GAAP 和⾮ GAAP 其他收⼊和⽀出预计收⼊约为 2 亿美元,不包括⾮关联投资的损益。 GAAP 和⾮ GAAP 税率预计为 15%,上下浮动 1%(不包括任何离散项⽬)。

2.2 Q&A

Q1:您认为就⽣成型⼈⼯智能市场的出货量⽽⾔,当前处于怎么样的位置?因为当我只看你们数据中⼼的轨迹时,明年数据中⼼⽀出将接近 30%。那么您正在关注哪些指标?我们在 AI 这个市场中处于什么位置?

A1:从历史上看,过去⼏个季度,中国和其他⼀些受影响的⽬的地约占我们数据中⼼收⼊的 20% ⾄ 25%。我们预计,随着进⼊第四季度,这⼀数字将⼤幅下降。

出⼝管制将对我们的中国业务产⽣负⾯影响,即使从⻓远来看,我们也⽆法清楚地了解这种影响的严 重程度。不过,我们正在努⼒扩展我们的数据中⼼产品组合,以可能提供不需要许可证的新的符合法 规的解决⽅案。

这些产品可能会在未来⼏个⽉内上市。然⽽,我们预计他们的贡献占第四季度收⼊的百分⽐不会很 ⼤或有意义。

⽣成式⼈⼯智能是我们⼏⼗年来⻅过的最⼤的软件和硬件 TAM 扩展。其核⼼,主要是基于检索的计算⽅法,⼏乎所有你所做的事情都是从某个地⽅的存储中检索出来的,现在 已经得到了增强,添加了⽣成⽅法,并且它⼏乎发⽣了变化⼀切。

您可以看到⽂本到⽂本、⽂本到图像、⽂本到视频、⽂本到 3D、⽂本到蛋⽩质、⽂本到化学品。 这些是过去由⼈类处理和输⼊的东西,现在这些是⽣成⽅法。我们访问数据的⽅式已经改变。它曾经 基于显式查询。

因此,我们对与 SAP 和 Dropbox 以及您将听到的许多其他合作伙伴所做的⼯作感到⾮常兴奋。真正有影响⼒的领域之⼀是软件⾏业,该⾏业价值约⼀万亿美元,在过去⼏⼗年⾥⼀直在构建⼿ 动使⽤的⼯具。现在出现了⼀个全新的软件部分,称为副驾驶和辅助。

这些⼯具不需要⼿动使⽤,⽽是有副驾驶来帮助您使⽤它。因此,当然,我们将继续这样做,⽽不是许 可软件,但我们还将聘请副驾驶和助理来帮助我们使⽤该软件。我们将把所有这些副驾驶和助⼿连 接到⼈⼯智能团队中,这将是现代版本的软件、现代版本的企业业务软件。因此,软件和软件完成⽅式 的转变正在驱动底层的硬件。

现在我们有了更好的⽅法,称为加速计算,您可以节省⼀个数量级的能源,可以节省 ⼀个数量级的时间,或者可以通过使⽤加速来节省⼀个数量级的成本。因此,如果您愿意的话,加速计算正在将通⽤计算转变为这种新⽅法。新型数据中⼼进⼀步增强了这⼀点。这就是您刚才谈到的传统数据中⼼,我们⼤约占其中的三分之⼀。

但是有⼀种新的数据中⼼类型,这种新的数据中⼼类型与过去的数据中⼼不同,过去的数据中 ⼼运⾏着⼤量应⽤程序,由许多使⽤相同基础设施的不同租⼾的⼈使⽤,并且该数据中⼼存 储了⼤量⽂件。这些新的数据中⼼是很少的应⽤程序,即使不是⼀个应⽤程序,也基本上由⼀ 个租⼾使⽤。它处理数据,训练模型,⽣成代币,⽣成⼈⼯智能,我们将这些新的数据中⼼ 称为⼈⼯智能⼯⼚。我们看到⼏乎每个国家都在建造⼈⼯智能⼯⼚。

因此,如果你看看我们在扩张、向这种新计算⽅法的过渡中所处的位置,这是你在⼤型语⾔模型 初创公司、⽣成⼈⼯智能初创公司和消费互联⽹公司中看到的第⼀波浪潮。我们正在加⼤⼒度。与此同时,在这种情况不断增加的同时,您会看到我们开始与企业软件公司合作,他们希 望构建聊天机器⼈和副驾驶,并提供帮助以增强他们平台上的⼯具。你会看到专⻔针对 GPU 的 CSP 在世界各地涌现,他们真正致⼒于做⼀件事,那就是处理⼈⼯智能。你会看到主权 ⼈⼯智能基础设施、⼈⺠和国家现在认识到他们必须利⽤他们的技术。拥有⾃⼰的数据,保留⾃⼰ 的数据,保留⾃⼰的⽂化,处理这些数据,并开发⾃⼰的⼈⼯智能,你在印度看到了这⼀点。

因此,我认为,随着⽣成式⼈⼯智能浪潮在每个⾏业、每个公司、每个地区传播,你会看到 新的发展。因此,我们正处于这种拐点、这种计算转变的开始。

Q2:我想询问有关业务⽹络⽅⾯的问题。如何看待以太网的演进?

A2: 我们的⽹络业务已达到 10 亿美元以上,⽽且规模还将进⼀步扩⼤。我 们最近在我们的⽹络业务中添加了⼀个新的⽹络平台。但绝⼤多数专⽤的⼤型 AI ⼯⼚都在 InfiniBand 上进⾏标准化。其原因不仅是因为它的数据速率和延迟,⽽且它在⽹络中移动流量的⽅ 式⾮常重要。

有了 InfiniBand,有了软件定 义的⽹络,我们就可以做到控制、⾃适应路由、性能隔离和噪声隔离,当然更不⽤说 InfiniBand 的数据速率和低延迟以及⾮常低的开销了,这是很⾃然的 InfiniBand 的⼀部分。因 此,InfiniBand 不仅仅是⼀个⽹络,它还是⼀个计算结构。我们在结构中加⼊了许多软件定义的功 能,包括计算。

例如,最近我们谈到了我们正在创建的模型之⼀,它被称为 Shipnemo,我们正在构建许多其他 模型。我们将在公司内部创建数⼗、数百个⾃定义⼈⼯智能模型。

我们所做的就是发明了这个新平台,它扩展了以太网,不会取代以太网,它 100% 兼容以太网,并且针对东西向流量(计算结构所在的位置)进⾏了优化。它通过 BlueField 的端到端解决⽅ 案以及我们的频谱交换机添加到以太⽹中,使我们能够执⾏ InfiniBand 中的⼀些功能(不是全部, ⽽是部分功能),并且我们取得了出⾊的结果。我们进⼊市场的⽅式是与已经提供我们的计算解决⽅ 案的⼤型企业合作伙伴⼀起进⼊市场。因此,惠普、戴尔和联想拥有 NVIDIA AI 堆栈、NVIDIA AI 企业软 件堆栈,现在他们与 BlueField 集成,并捆绑销售其 Spectrum 交换机。

他们将能够凭借庞⼤的销售队伍和庞⼤的经销商⽹络,为世界各地的企业客⼾提供完全集成的(如 果你愿意的话)⾄少端到端优化的⼈⼯智能解决⽅案。

Q3: 我想知道您是否可以多谈谈 Grace Hopper,您如何看待利⽤某些微处理器的能⼒,如何 将其视为 TAN expander,以及您认为使⽤ Grace Hopper 与更传统的 H100 应⽤程序相⽐有哪些应⽤ 程序?

A3:Grace Hopper 已投⼊⽣产,⽬前正在⼤批量⽣产。我们预计,明年,随着我们在⾼性能计算和⼈⼯ 智能基础设施⽅⾯取得的所有设计胜利,我们将⾮常快地从我们的第⼀个数据中⼼ CPU 发展到价值数⼗亿美元的产品线。这对我们来说将是⼀个⾮常庞⼤的产品线。它能够创建同时具有⾮常快的内存和⾮常⼤的内存的计算节点。在向量数据库或语义搜索领 域,称为 RAG(检索增强⽣成),这样您就可以让⽣成式 AI 模型能够在⽣成响应之前引⽤专有数据 或事实数据。

这样,⽣成模型⼀⽅⾯仍然能够⾃然地与您交互,另⼀⽅⾯能够引⽤事实数据、专有数据或特定领域 的数据、您的数据,并且能够与上下⽂相关相关并减少幻觉。例如,对于 Grace Hopper 来说,这个特定 的⽤例确实⾮常棒。它还为那些真正想要拥有不同于 x86 的 CPU 的客⼾提供服务。也许是欧洲超级计算中⼼或欧洲公司想要建⽴⾃⼰的 ARM ⽣态系统并想要建⽴整个堆栈,或者是 CSP 决定转向 ARM,因为他们⾃⼰的定制 CPU 是基于 ARM 的。

Q4:想问⼀下你们的收⼊可⻅度。您认为数据中⼼能够发展到 2025 年吗?

A4: 绝对相信数据中⼼能够在 2025 年之前实现增⻓。这有⼏个原因。我们正在⼤幅扩⼤供应。我们已经拥有世界上最⼴泛、最⼤、最有能⼒的供应链之⼀。⼈们认为 GPU 是⼀个芯⽚,但 HGX H100(Hopper HGX)有 35,000 个零件。它重 70 磅。其 中⼋个筹码是 Hopper 的。它是⼀台超级 计算机,因此测试超级计算机的唯⼀⽅法是使⽤另⼀台超级计算机。因此,我们 HGX 供应链的各个⽅⾯都很复杂,⽽我们这⾥拥 有的出⾊团队确实令⼈难以置信地扩展了该供应链。更不⽤说,我们所有的 HGX 都与 NVIDIA ⽹络连接,⽽⽹络、收发器、NIC、电缆、交换机,其复杂性 令⼈难以置信。

正如我之前提到的,我们有新客⼾。不同的地区正在建⽴ GPU 专家云,来⾃世界各地的主权⼈⼯智能 云,因为⼈们意识到他们⽆法承担将⾃⼰国家的知识、国家⽂化出⼝给其他⼈然后将⼈⼯智能转售给 他们的费⽤。他们必须,他们应该,他们有技能,当然,与我们结合,我们可以帮助他们做到这⼀ 点,建⽴他们的国家⼈⼯智能所以他们要做的第⼀件事就是创建他们的⼈⼯智能云,国家⼈⼯智能 云。您还看到我们现在正在成⻓为企业。

企业市场有两条路径。第⼀条路当然是现成的 AI 当然还有 ChatGPT,令⼈难以置信的现成的 AI 还有其他的。还有专有的⼈⼯智能,因为 ServiceNow 和 SAP 等软件公司以及许多其他公司⽆法承担将其公司的智能外包给其他⼈的费⽤。

我们有⼀项名为 AI Foundry 的新服务,我们利⽤ NVIDIA 的功能为他们提供服务。下⼀个是企业构建 ⾃⼰的⾃定义⼈⼯智能、⾃⼰的⾃定义聊天机器⼈、⾃⼰的⾃定义规则。⽽且这种能⼒正在全世界范围 内传播。我们为该市场提供服务的⽅式是使⽤整个系统堆栈,其中包括我们的计算、⽹络和交 换机,运⾏我们称为 NVIDIA AI Enterprise 的软件堆栈,并通过我们的市场合作伙伴 HP、Dell 获取 该软件堆栈、联想等等。

因此,我们看到⽣成式⼈⼯智能的浪潮从初创公司和通信服务提供商开始转向消费者互联⽹公司,转 向企业软件平台,转向企业公司。最终,你们看到我们花费⼤量精⼒的领域之⼀与⼯业⽣成⼈⼯智能 有关,这就是 NVIDIA AI 和 NVIDIA Omniverse 的结合之处,这是⼀项⾮常⾮常令⼈兴奋的⼯作。

Q5: 您提到您将在未来 ⼏个⽉内推出符合法规的产品,但对第四季度收⼊的贡献应该相对有限。这是⼀个时间问题吗? 它是否会成为 4 ⽉份及以后数据中⼼重新加速和增⻓的来源?或者价格点对未来收⼊的贡献是 否应该相对有限?然后上周发布的 AI Foundry 服务公告,盈利模式将如何运作?主要是服务和软件收⼊吗?我们应该如何考虑⻓期机会?这将是微软独有的, 还是您也有计划扩展到其他合作伙伴?

A5: 关于我们可以向中国客⼾提供的潜在新产品的问题。设计和开发这些新产品都 是⼀个重要的过程。正如我们所讨论的,我们将确保我们也与美国政府充分讨论我们对这些产品的 意图。 考虑到我们本季度的状况,本季度已经过去⼏周了,我们需要⼀些时间来仔细研究并与客⼾讨论他们 对我们拥有的这些新产品的需求和愿望。展望未来,⽆论是中期还是⻓期,很难说我们可以与美国政府合作⽣产什么,以及我们中国客⼾的利益 是什么因此,我们仍然专注于为中国客⼾找到适当的平衡,但⽬前还很难说。

AI Foundry ⾯临着巨⼤的机遇,⽽且意义重⼤。⾸先,每个公司都有⾃⼰的核⼼智⼒。它构成了我们的公司。我们的数据,我们的领域专业知识。就很 多公司⽽⾔,我们创造⼯具,世界上⼤多数软件公司都是⼯具平台,⽽这些⼯具今天被⼈们使⽤。在未来,它将被我们雇佣的⼀⼤堆⼈⼯智能增强的⼈们使⽤。这些⼈⼯智能平台必须⾛向世界, 你就会看到,我们已经宣布了⼀些,SAP、ServiceNow、Dropbox、Getty,还有许多其他平台即将推 出。因是因为他们拥有⾃⼰的专有⼈⼯智能,他们想要⾃⼰的专有⼈⼯智能,他们⽆法承担 外包情报和分发数据的费⽤,也⽆法将⻜轮交给其他公司来为他们构建⼈⼯智能。

我们有⼏样东西对于代⼯⼚来说是⾮常重要的,就像台积电是⼀家代⼯⼚⼀样。你必须拥有 ⼈⼯智能技术。如您所知,我们拥有令⼈难以置信的深度⼈⼯智能能⼒、⼈⼯智能技术能⼒。 其次,你必须拥有最佳实践,已知的实践,通过发明⼈⼯智能模型来处理数据的技能,以创建有护 栏、微调等等的⼈⼯智能。第三件事是你需要⼯⼚,这就是 DGX Cloud。我们的⼈⼯智能模型称为⼈⼯智能基础。如果你 愿意的话,我们⽤于创建 AI 的 CAD 系统称为 NEMO,它们在 NVIDIA 的⼯⼚(我们称为 DGX Cloud)上运⾏。

我们在云 端、本地和任何地⽅都拥有庞⼤的安装基础。⽽且它是安全的、安全地修补、不断修补、优化和⽀持。 我们称之为 NVIDIA AI Enterprise。NVIDIA AI Enterprise 的价格为每位 GP 每年 4,500 美元。这就是我们的商业模式。我们的商业模式基本上是⼀个许可证。然后,我们的客⼾凭借该基本许可证, 可以在此基础上构建他们的盈利模型。在很多⽅⾯,批发变成了零售。

他们可以针对每个实例拥有⼀个订阅许可证基础,也可以针对每个使⽤情况进⾏订阅。他们可以 采取很多不同的⽅式来创建⾃⼰的商业模式,但我们的⽅式基本上就像软件许可证,就像操 作系统⼀样。因此,我们的业务模式是帮助您创建⾃定义模型,然后在 NVIDIA AI Enterprise 上运⾏这些⾃定义模型。

Q6:我想知道如果没有中国的限制,第四季度的指导值会更⾼吗?或者 您的供应是否受到限制,只能将本可以运往中国其他地⽅的货物转运。我想沿着这些思路,如果您能让 我们了解您⽬前在数据中⼼的交货时间以及像当前的情况,它是否会降低这些交货时间,因为 您有⼀些零件可以⽴即发货吗?

A6: 是的,在某些情况下,我们每个季度都在努⼒改善我们 的供应。我们在每个季度的增⻓⽅⾯做得⾮常扎实,这决定了我们的收⼊。但由于我们对第四季度的展望中没有中国,我们仍在努⼒改善我们的供应,并计划 在明年继续增⻓,并为此努⼒。

Q7: 也许你可以花一点时间讨论大模型在推理方面的演进以及你的公司如何定位于此而不是较小的模型推理。 其次,直到一两个月前,我还从未真正收到过任何关于人工智能工作负载的数据处理部分的问题。也许您可以谈谈 CUDA 如何加速这些⼯作负载

A7:我们可以创建 TensorRT-LLM,因为 CUDA 是可编程的。如果 CUDA 和我们的 GPU 不具备如此可编程性,我们就很难以现在的速度改进软件堆栈。同⼀ GPU 上的 TensorRTLLM ⽆需任何⼈接触任何东西即可将性能提⾼两倍。当然,最重要的是,我们的创新步伐如此之快,H200 将其提⾼了两倍。因此,我们的推理成本在⼤约⼀年的时间内降低了四倍。 所以这真的很难跟上。现在,每个⼈都喜欢我们的推理引擎的原因是因为我们的安装基础。 20 年来,我们⼀直致⼒于我们的客⼾群。

我们拥有的安装基础不仅在每个云中都是最⼤的,⽽且每个企业系统制造商都可以提供。 ⼏乎每个⾏业的公司都在使⽤它。⽆论何时您看到 NVIDIA GPU,它都会运⾏我们的 堆栈。它在架构上是兼容的。

NVIDIA 的平台稳定性确定性是每个⼈⾸先在我们的基础上构建以及每个⼈⾸先在我 们的基础上进⾏优化的原因。您所做的所有⼯程和所有⼯作以及您在 NVIDIA 基础上构 建的所有技术发明都会为使⽤我们 GPU 的每个⼈带来好处。我们拥有如此庞⼤的安 装基础,云中有数以百万计的 GPU,来⾃⼈们 PC 的 1 亿个 GPU,⼏乎世界上的每个⼯作 站,它们在架构上都是兼容的。因此,如果您是⼀个推理平台并且正在部署推理应⽤程 序,那么您基本上是⼀个应⽤程序提供商,并且作为软件应⽤程序提供商,您正在寻找⼤ 型安装基础。

数据处理,在训练模型之前,您必须整理数据。你必须推断数据,也许你必须⽤合成数据 来扩充数据,所以你处理数据,清理数据,对⻬数据,规范化数据。所有这些数据都不是以 字节和兆字节为单位来衡量的,⽽是以太字节和拍字节为单位来衡量的。在数据⼯程之前、 在进⾏培训之前进⾏的数据处理量⾮常⼤。

它可能代表您最终创建数据驱动的机器学习服务所需⼯作量的 30%、40%、50%。所以数据处理只 是⼀个重要的部分。我们加速 Spark,我们加速 Python。我们刚刚做的最酷的事情之⼀是 cuDF pandus。

Tandas 是世界上最成功的数据科学框架,PANDAS 现在由 NVIDIA CUDA 加速, 开箱即⽤,⽆需⼀⾏代码。因此,加速度确实⾮常惊⼈,⼈们对此感到⾮常兴奋。 PANDAS 的设计只 有⼀个⽬的,只有⼀个⽬的,即真正⽤于数据科学的数据处理。 NVIDIA CUDA 为您提供了这⼀切。

Q8: 我们如何看待你们的研发、运营⽀出增⻓前景,以⽀持更积极、更扩展的未来路线图,但更 重要的是,团队正在做什么来管理和推动执⾏所有这些复杂性?

A8:⾸先,我们加快执⾏速度有 ⼀个根本原因,就是因为它从根本上降低了成本TensorRT LLM 和 H200 的结合将我们客⼾的⼤型模型推理成本降低了四倍。

因此,我们希望加快我们的路线图。第⼆个原因是扩⼤⽣成式⼈⼯智能的覆盖范围世界上数据中⼼配置的数量。每种云中都有 NVIDIA 的⾝影,但没有⼀种云是相同的。 NVIDIA 与每家云服务提供商合作,但他们的⽹络控制平⾯安全状况都不相同。

我们现在正在将所有这些产品推向市场。因此,复杂性当然包括所有的技术、细分市场和速度。它包括这样⼀个事实:我们在架构上与其中每⼀个都兼容。它包括我们创建的所有特定于域的库。这就是为什么每家计算机公司都能不假思索地将 NVIDIA 纳⼊其路线图并将其推向市场的原因。原因是因为有市场需求。医疗保健有市场需求。当然,⼈⼯智能、⾦融服务、超级计算、量⼦计算都有市场需求。我们拥有特定领域库的市场和细分市场列表⾮常⼴泛。最后,我们为数据中⼼提供了端到端的解决⽅案。 InfiniBand ⽹络、Ethernet、 x86、ARM,⼏乎提供了解决⽅案、技术解决⽅案和软件堆栈的所有排列组合。

这意味着拥有最多数量的⽣态系统软件开发⼈员、最⼤的系统制造商⽣态系统、最⼤和最⼴泛的分销合作伙伴⽹络,以及最终最⼤的覆盖范围。这当然需要⼤量的能量。但真正将它们结合 在⼀起的是我们⼏⼗年前做出的⼀个伟⼤决定,即⼀切在架构上都是兼容的。当我们开发⼀种 在⼀个 GPU 上运⾏的领域特定语⾔时,它会在每个 GPU 上运⾏当我们针对云优化 TensorRT 时,我们也会针对企业进⾏优化。

当我们做⼀些事情带来新功能、新库、新功能或新开发⼈员时,他们会⽴即从我们的所有影响⼒中 受益。因此,这种与架构兼容的原则已经持续了⼏⼗年,这也是 NVIDIA 仍然⾮常⾮常⾼效 的原因之⼀。

本文的风险披露与声明:海豚投研免责声明及一般披露