长湾资讯
2024.02.22 01:00
portai
我是 PortAI,我可以总结文章信息。

NVIDIA Corporation (NVDA) 2024 年第四季度财报电话会议记录

Good afternoon. I will now translate the content you provided: NVIDIA Corporation (NASDAQ: NVDA) 2024 年第四季度财报电话会议将于 2024 年 2 月 21 日下午 5:00 ET 举行。 公司参与者: - Simona Jankowski - 副总裁,投资者关系 - Colette Kress - 执行副总裁兼首席财务官 - Jensen Huang - 总裁兼首席执行官 电话会议参与者: - Toshiya Hari - 高盛 - Joe Moore - 摩根士丹利 - Stacy Rasgon - 伯恩斯坦研究 - Matt Ramsay - 道明证券 - Timothy Arcuri - 瑞银 - Ben Reitzes - Melius Research - C.J. Muse - 康泰研究 - Aaron Rakers - 富国银行 - Harsh Kumar - 派普桑德勒 操作员:下午好。我是 Rob。

公司参与者

Simona Jankowski - 投资者关系副总裁

Colette Kress - 执行副总裁兼首席财务官

Jensen Huang - 总裁兼首席执行官

电话会议参与者

Toshiya Hari - 高盛

Joe Moore - 摩根士丹利

Stacy Rasgon - 伯恩斯坦研究

Matt Ramsay - 道明证券

Timothy Arcuri - 瑞银

Ben Reitzes - 美林研究

C.J. Muse - 康泰研究

Aaron Rakers - 富国银行

Harsh Kumar - 派杰桑德勒

操作员

下午好。我是 Rob,今天将担任您的电话会议操作员。此时,我想欢迎大家参加英伟达第四季度财报电话会议。为防止任何背景噪音,所有线路都已静音。在发言人讲话后,将进行问答环节。[操作员指示]

谢谢。Simona Jankowski,您可以开始您的会议。

Simona Jankowski

谢谢。大家下午好,欢迎参加英伟达 2024 财年第四季度财报电话会议。今天和我一起的有英伟达的总裁兼首席执行官 Jen-Hsun Huang,以及执行副总裁兼首席财务官 Colette Kress。 I would like to remind you that our call is currently being broadcast live on NVIDIA's Investor Relations website. The webcast will be available for replay until the conference call to discuss our financial results for the first quarter of fiscal 2025. The content of today's call belongs to NVIDIA and cannot be reproduced or transcribed without our prior written consent.

During this call, we may provide forward-looking statements based on current expectations. These statements are subject to significant risks and uncertainties, and our actual results may differ. For a discussion of factors that could impact our future financial results and business, please refer to the disclosures in today's earnings report, our most recent Forms 10-K and 10-Q, and any reports we may file on Form 8-K with the Securities and Exchange Commission.

All statements made today, February 21, 2024, are based on information available to us at this time. Unless required by law, we do not have an obligation to update such statements. Throughout this call, we will also discuss non-GAAP financial measures. 您可以在我们首席财务官的评论中找到这些非 GAAP 财务指标与 GAAP 财务指标的调和情况,该评论已发布在我们的网站上。

现在让我把话筒交给 Colette。

Colette Kress

谢谢,Simona。第四季度再次创下纪录。220 亿美元的营收环比增长 22%,同比增长 265%,远超我们的预期 200 亿美元。截至 2024 财年,营收达到 609 亿美元,比上一年增长 126%。

首先是数据中心。2024 财年数据中心营收达到 475 亿美元,是上一年的三倍多。世界已经到达了新计算时代的转折点。1 万亿美元的数据中心基础设施正在迅速从通用计算转向加速计算。

随着摩尔定律的放缓,而计算需求持续激增,公司可能会加速每一个可能的工作负载,以推动未来性能、TCO 和能源效率的提升。与此同时,公司已经开始建设下一代现代化数据中心,我们称之为 AI 工厂。 在生成式人工智能时代,我们专为精炼原始数据并生成有价值的情报而打造。

在第四季度,数据中心收入达到了创纪录的 184 亿美元,环比增长 27%,同比增长 409%,这得益于英伟达 Hopper GPU 计算平台以及 InfiniBand 端到端网络。计算收入增长超过 5 倍,网络收入较去年增长了三倍。我们很高兴看到 Hopper 架构产品的供应正在改善。对 Hopper 的需求仍然非常强劲。我们预计,由于需求远远超过供应,我们的下一代产品将面临供应瓶颈。

第四季度数据中心增长的驱动因素包括生成式人工智能和大型语言模型的训练和推理,涵盖了广泛的行业、用例和地区。我们的数据中心平台的多功能性和领先性能为许多用例提供了高投资回报,包括人工智能训练和推理、数据处理以及广泛的 CUDA 加速工作负载。据我们估计,过去一年大约有 40% 的数据中心收入用于人工智能推理。 在几乎每个行业中,构建和部署人工智能解决方案已经成为现实。许多公司跨行业培训和运营其规模化的人工智能模型和服务,通过云提供商、包括超大规模、GPU 专业化和私有云或本地部署在 NVIDIA 人工智能基础设施上。

NVIDIA 的计算堆栈在云端和本地环境之间无缝延伸,使客户能够采用多云或混合云策略进行部署。在第四季度,大型云服务提供商占据了我们数据中心收入的一半以上,支持内部工作负载和外部公共云客户。

微软最近指出,超过 50,000 家组织使用 GitHub Copilot 业务来提升其开发人员的生产力,这促使 GitHub 的收入增长加速至去年同比增长 40%。而 Microsoft 365 的 Copilot 在头两个月的采用速度比之前两个主要 Microsoft 365 企业套件发布时更快。 Consumer internet companies have been at the forefront of adopting AI and are among our largest customer base. From search engines to e-commerce platforms, social media, news outlets, video streaming services, and entertainment providers, these companies are leveraging AI for advanced recommendation systems based on deep learning. These AI investments are proving to be highly beneficial, enhancing customer engagement, increasing ad conversion rates, and improving click-through rates.

In its most recent quarter, Meta highlighted more accurate predictions and enhanced advertiser performance as key factors contributing to a significant revenue growth. Moreover, consumer internet companies are exploring generative AI to assist content creators, advertisers, and customers through automation tools for content creation, ad generation, online product descriptions, and AI-powered shopping guidance.

Enterprise software companies are also utilizing generative AI to help customers achieve productivity enhancements. Early adopters that we have collaborated with for training and implementing generative AI have already witnessed remarkable commercial success. 在最新的季度中,ServiceNow 的生成式人工智能产品推动了他们有史以来最大的净新增年度合同价值贡献,超过了任何新产品系列发布。我们还与许多其他领先的人工智能和企业软件平台合作,包括 Adobe、Databricks、Getty Images、SAP 和 Snowflake。

大型语言模型领域蓬勃发展。Anthropic、Google、Inflection、Microsoft、OpenAI 和 xAI 在生成式人工智能方面持续取得惊人突破。像 Adept、AI21、Character.ai、Cohere、Mistral、Perplexity 和 Runway 这样令人兴奋的公司正在构建平台,为企业和创作者提供服务。新创企业正在创建特定语言、文化和习俗的 LLMs,以服务世界各地的许多地区。

其他公司正在创建基础模型,以应对完全不同的行业,比如 Recursion Pharmaceuticals 和 Generate:Biomedicines 从事生物学领域。这些公司通过超大规模或 GPU 专业化云提供商推动了对 NVIDIA 人工智能基础设施的需求。就在今天早上,我们宣布我们已与 Google 合作,优化其最先进的新 Gemma 语言模型,以加速推理性能。 在云数据中心和个人电脑上使用 NVIDIA GPU。

过去一年中最显著的趋势之一是企业在诸如汽车、医疗保健和金融服务等行业垂直领域广泛采用人工智能。NVIDIA 提供多个应用框架,帮助企业在自动驾驶、药物发现、低延迟机器学习用于欺诈检测或机器人技术等垂直领域采用人工智能,充分利用我们的全栈加速计算平台。

我们估计去年汽车垂直领域通过云端或本地数据中心贡献的数据中心收入超过 10 亿美元。NVIDIA DRIVE 基础设施解决方案包括用于自动驾驶开发的系统和软件,包括数据摄入、创建、标记和人工智能训练,以及通过模拟进行验证。

全球近 80 家车辆制造商,包括传统汽车制造商、新能源汽车、卡车、无人出租车和一级供应商,都在使用 NVIDIA 的人工智能基础设施来训练 LLM 和其他用于自动驾驶和人工智能驾驶舱应用的模型。 事实上,几乎每家从事人工智能的汽车公司都在与 NVIDIA 合作。随着自动驾驶算法转向视频转换器,越来越多的汽车配备摄像头,我们预计 NVIDIA 在汽车数据中心处理方面的需求将显著增长。

在医疗保健领域,数字生物学和生成式人工智能正在帮助重新定义药物发现、手术、医学成像和可穿戴设备。在过去的十年里,我们在医疗保健领域建立了深厚的专业知识,打造了 NVIDIA Clara 医疗保健平台和 NVIDIA BioNeMo,一个生成式人工智能服务,用于开发、定制和部署计算机辅助药物发现的人工智能基础模型。

BioNeMo 拥有日益增长的预训练生物分子人工智能模型库,可应用于端到端的药物发现流程。我们宣布 Recursion 通过 BioNeMo 向药物发现生态系统提供其专有的人工智能模型。在金融服务领域,客户正在使用人工智能进行越来越多的用例,从交易和风险管理到客户服务和欺诈检测。 American Express 利用 NVIDIA 人工智能技术,将欺诈检测准确率提高了 6%。

关于我们的数据中心收入按地理区域划分。除中国外,所有地区的增长都很强劲,中国的数据中心收入在美国政府于十月实施的出口管制法规后显著下降。尽管我们尚未获得美国政府许可将受限制产品出口到中国,但我们已开始向中国市场运送无需许可的替代产品。中国在第四季度占据了我们数据中心收入的中单位数百分比。我们预计在第一季度将保持在类似范围内。

在美国和中国以外的地区,主权人工智能已成为额外的需求驱动因素。世界各国正在投资于人工智能基础设施,以支持在本国语言、本国数据上构建大型语言模型,并支持本地研究和企业生态系统的发展。从产品角度来看,绝大部分收入来自我们的 Hopper 架构以及 InfiniBand 网络。 他们已经成为加速计算和人工智能基础设施的事实标准。

我们正计划在第二季度初发货 H200,目前进展顺利。需求强劲,因为 H200 的推理性能几乎是 H100 的两倍。网络业务超过 130 亿美元的年化收入。我们的端到端网络解决方案定义了现代人工智能数据中心。我们的 Quantum InfiniBand 解决方案同比增长超过 5 倍。

NVIDIA Quantum InfiniBand 已成为性能最高的人工智能专用基础设施的标准。我们现在正进军以太网网络领域,推出了全新的 Spectrum-X 端到端解决方案,旨在为数据中心提供经过 AI 优化的网络。Spectrum-X 引入了针对 AI 而构建的以太网新技术。我们 Spectrum 交换机、BlueField DPU 和软件堆栈中融入的技术,使得 AI 处理的网络性能比传统以太网提高了 1.6 倍。

包括戴尔、惠普企业、联想和超微在内的领先 OEM 厂商,通过其全球销售渠道,正在与我们合作,将我们的 AI 解决方案拓展至全球企业。 We are on track to ship Spectrum-X this quarter. We also made great progress with our software and services offerings, which reached an annualized revenue run rate of $1 billion in Q4. We announced that NVIDIA DGX Cloud will expand its list of partners to include Amazon's AWS, joining Microsoft Azure, Google Cloud, and Oracle Cloud. DGX Cloud is used for NVIDIA's own AI R&D and custom model development as well as NVIDIA developers. It brings the CUDA ecosystem to NVIDIA CSP partners.

Moving on to gaming, gaming revenue was $2.87 billion, flat sequentially and up 56% year on year, surpassing our expectations due to strong consumer demand for NVIDIA GeForce RTX GPUs during the holiday season. Fiscal year revenue of $10.45 billion was up 15%. At CES, we unveiled our GeForce RTX 40 Super Series family of GPUs. Priced from $599, they offer exceptional gaming performance and generative AI capabilities. Sales have started off strong.

NVIDIA AI Tensor cores and the GPUs provide up to 836 AI tops, ideal for powering AI in gaming and enhancing everyday productivity. 通过我们的 RTX GPU 提供的丰富软件堆栈进一步加速了人工智能。借助我们的 DLSS 技术,八个像素中有七个可以由人工智能生成,从而实现高达 4 倍更快的光线追踪和更好的图像质量。而且,借助用于 Windows 的 Tensor RT LLM,我们的开源库可以加速最新大型语言模型生成人工智能的推理性能,使其在 RTX AI PC 上运行速度提高高达 5 倍。

在 CES 上,我们还宣布了一波来自各大主要 OEM 厂商的新 RTX 40 系列 AI 笔记本电脑。这些产品将高性能的游戏和人工智能功能带入各种形态,包括 14 英寸和轻薄笔记本电脑。拥有高达 686TOPS 的人工智能性能,这些下一代 AI PC 将生成人工智能性能提高高达 60 倍,使其成为性能最佳的 AI PC 平台。在 CES 上,我们宣布了 NVIDIA Avatar Cloud Engine 微服务,允许开发人员将最先进的生成人工智能模型集成到数字化身。ACE 赢得了多个 CES 2024 年度最佳奖项。 NVIDIA 拥有一整套端到端平台,用于构建和部署适用于 RTX 个人电脑和工作站的生成式人工智能应用程序。这包括开发人员可以整合到他们的生成式人工智能工作负载中的库、SDK、工具和服务。NVIDIA 正在推动下一波即将登陆个人电脑的生成式人工智能应用程序。在已安装基数超过 1 亿台 RTX 个人电脑和超过 500 个支持人工智能的个人电脑应用程序和游戏的情况下,我们正在不断前行。

转向专业可视化。收入为 4.63 亿美元,环比增长 11%,同比增长 105%。财年收入为 15.5 亿美元,同比增长 1%。本季度的环比增长主要受到继续推进的 RTX Ada 架构 GPU 组合的推动。企业正在更新他们的工作站,以支持生成式人工智能相关的工作负载,如数据准备、LLM 微调和检索增强生成。

推动需求的关键工业垂直领域包括制造业、汽车业和机器人技术。汽车行业也是 NVIDIA Omniverse 的早期采用者,因为它试图将从设计到建造、模拟、运营和体验工厂和汽车的数字化工作流程。 在 CES 上,我们宣布创意合作伙伴和开发者,包括 Brickland、WPP 和 ZeroLight 正在构建由 Omniverse 驱动的汽车配置器。像 LOTUS 这样的领先汽车制造商正在采用这项技术,为汽车购买体验带来新的个性化、逼真度和互动性水平。

转向汽车业务。营收为 2.81 亿美元,环比增长 8%,同比下降 4%。截至本财年的营收为 10.9 亿美元,增长 21%,首次突破 10 亿美元大关,持续受到汽车制造商对 NVIDIA DRIVE 平台的采用推动。NVIDIA DRIVE Orin 是软件定义 AV 车队的首选 AI 车载计算机。

其继任者 NVIDIA DRIVE Thor,专为视觉转换器设计,提供更多的 AI 性能,并将广泛的智能功能集成到单一的 AI 计算平台中,包括自动驾驶和停车、驾驶员和乘客监控以及 AI 座舱功能,并将于明年推出。本季度有几个汽车客户宣布,包括理想汽车、长城汽车、ZEEKR、吉利旗下的高端电动汽车子公司以及小米生态链的新车型均基于 NVIDIA 构建。 在继续利润和损失表的其余部分之前。根据通用会计准则,毛利率环比扩大至 76%,非通用会计准则下的毛利率扩大至 76.7%,这主要得益于数据中心增长和产品组合。我们在第四季度的毛利率受益于有利的零部件成本。环比,通用会计准则下的运营费用增长了 6%,非通用会计准则下的运营费用增长了 9%,主要反映了更高的计算和基础设施投资以及员工增长。

在第四季度,我们以股票回购和现金股息的形式向股东返还了 28 亿美元。在 24 财年,我们利用了 99 亿美元的现金用于股东回报,其中包括 95 亿美元的股票回购。

让我来谈一下第一季度的展望。预计总收入将达到 240 亿美元,加减 2%。我们预计数据中心和 proviz 将实现环比增长,部分抵消了游戏业务的季节性下降。通用会计准则和非通用会计准则下的毛利率预计分别为 76.3% 和 77%,加减 50 个基点。与第四季度类似,第一季度的毛利率受益于有利的零部件成本。在第一季度之后,今年剩余时间内,我们预计毛利率将回到中 70% 的范围。 根据预期,按照通用会计准则(GAAP)和非通用会计准则(non-GAAP)运营费用预计分别约为 35 亿美元和 25 亿美元。预计到 2025 财年,由于我们继续投资于前方巨大的机遇,GAAP 和非 GAAP 运营费用预计将增长约 30%。预计按照 GAAP 和非 GAAP,其他收入和支出将约为 2.5 亿美元,不包括来自非关联投资的收益和损失。预计按照 GAAP 和非 GAAP,税率将为 17%,加减 1%,不包括任何离散项目。更多财务细节请参阅首席财务官评论以及我们 IR 网站上提供的其他信息。

最后,让我强调一些即将举行的财务社区活动。我们将参加于 3 月 4 日在旧金山举行的摩根士丹利科技、媒体和电信会议,以及于 3 月 5 日在波士顿举行的第 44 届 TD Cowen 年度医疗保健会议。当然,请加入我们于 3 月 18 日星期一在加利福尼亚州圣何塞举行的年度 DTC 会议,这是五年来首次以面对面的方式举行。 在这里,DTC 将以 Jen-Hsun 的主题演讲拉开序幕,我们将于第二天,即 3 月 19 日,举行一场针对财务分析师的问答环节。

现在,我们将开始提问环节。操作员,请您开始征集问题。

问答环节

操作员

[操作员指示] 首位提问者是高盛的 Toshiya Hari。请您发问。

Toshiya Hari

您好。非常感谢您回答问题,恭喜您取得了非常强劲的业绩。我的问题是关于数据中心业务的。显然,您在这个业务领域表现出色。我想了解您对 2024 年和 2025 年的预期在过去 90 天内是如何发展的。

当您回答这个问题时,我希望您能谈谈数据中心内一些新的领域,比如软件。主权人工智能,我认为您对中长期如何看待这个领域已经表态。最近有一篇关于英伟达可能参与 ASIC 市场的文章。这是否属实,如果是,未来几年内我们应该如何看待您在该市场中的角色? 谢谢。

Jensen Huang

谢谢,Toshiya。让我们再看一遍。有三个问题,再来一遍。第一个问题是 - 你能 - 嗯?

Toshiya Hari

我猜您对数据中心的期望是如何演变的。谢谢。

Jensen Huang

好的。是的。嗯,我们每次只引导一个季度。但从根本上讲,截至 2024 年到 2025 年及以后,持续增长的条件非常优越。让我告诉你为什么?我们正处于两项全行业转型的初期阶段,这两项转型都是全行业范围内的。第一项是从通用计算向加速计算的转型。通用计算,如您所知,开始失去动力。您可以看到云服务提供商以及许多数据中心,包括我们自己的通用计算,将折旧期从四年延长到六年。

当您无法像以前那样根本性地和显著地增强吞吐量时,就没有理由用更多的 CPU 进行更新。因此,您必须加速一切。这正是英伟达长期以来一直在开拓的领域。 通过加速计算,您可以显著提高能源效率。您可以将数据处理成本提高 20 倍。这些数字是巨大的。当然,速度也是如此惊人,以至于我们实现了第二次全行业转型,称为生成式人工智能。

生成式人工智能,我相信我们在通话中会谈论很多。但请记住,生成式人工智能是一种新应用。它正在启用一种新的软件开发方式,正在创造新类型的软件。这是一种新的计算方式。您无法在传统的通用计算机上进行生成式人工智能。您必须加速进行。

第三点是,这正在推动一个全新的产业发展,这是值得停下来仔细观察的事情,也与您最后一个关于主权人工智能的问题相关。一个全新的产业,因为第一次,数据中心不仅仅是关于计算数据、存储数据和为公司员工提供服务。我们现在有了一种新型数据中心,专注于 AI 生成,一个 AI 生成工厂。 你可能听我形容它为 AI 工厂。但基本上,它将数据这一原材料,经由 NVIDIA 构建的 AI 超级计算机进行转化,将其转化为极具价值的代币。这些代币是人们在令人惊叹的 ChatGPT 或 Midjourney 上体验到的,或者说,当今搜索所增强的。现在所有的推荐系统都得到了增强,伴随着超个性化。

所有这些在数字生物学领域的令人难以置信的初创公司,生成蛋白质、生成化学品等等,列举不胜。因此,所有这些代币都是在一种非常专业的数据中心中生成的。我们称这个数据中心为 AI 超级计算机和 AI 生成工厂。但我们看到多样性——另一个原因——因此在基础层面就是这样。它在新市场中的体现是你在我们身上看到的所有多样性。

首先,我们进行的推理量现在简直是爆表的。几乎每次你与 ChatGPT 互动时,我们都在进行推理。 每次你使用 Midjourney,我们都在进行推理。每次你看到惊人的 Sora 视频或者 Runway 编辑的视频,Firefly,NVIDIA 都在进行推理。我们业务中推理部分增长迅速。我们估计增长了大约 40%。训练量仍在持续增加,因为这些模型变得越来越庞大,推理量也在增加。

但我们也在向新行业多元化发展。大型云服务提供商仍在继续扩建。从他们的资本支出和讨论中可以看出,但还有一个全新的类别叫做 GPU 专业化云服务提供商。他们专门从事 NVIDIA 人工智能基础设施,GPU 专业化云服务提供商。你会看到企业软件平台正在部署人工智能。ServiceNow 就是一个非常好的例子。你会看到 Adobe。还有其他的,比如 SAP 等。你会看到消费互联网服务现在正在用生成式人工智能来增强他们过去的所有服务。这样他们可以创造出更加超个性化的内容。 我们谈论的是工业生成式人工智能。现在我们的行业代表着数十亿美元的业务,包括汽车、医疗、金融服务。总的来说,我们的垂直行业现在都是数十亿美元的业务。当然还有主权人工智能。主权人工智能之所以存在是因为每个地区的语言、知识、历史、文化都不同,它们拥有自己的数据。

他们希望利用自己的数据,进行训练,创造自己的数字智能,并提供服务以利用这些原始材料。这些数据属于他们,世界各地的每个地区都是如此。数据属于他们。这些数据对他们的社会最有用。因此,他们希望保护这些数据。他们希望自行转化这些数据,进行增值转化,转化为人工智能,并自行提供这些服务。

因此,我们看到日本、加拿大、法国等地正在建设主权人工智能基础设施。我预计,在美国、西方所经历的情况必将在全球范围内复制。 这些 AI 生成工厂将会涉足每个行业、每家公司、每个地区。因此,我认为在过去的一年里,我们看到生成式 AI 真正成为一个全新的应用领域,一种全新的计算方式,一个全新的产业正在形成,推动着我们的增长。

运营人员

下一个问题来自摩根士丹利的乔·摩尔。请提问。

乔·摩尔

好的,谢谢。我想就收入中 40% 来自推理部分这一点进行跟进。这个数字比我预期的要大。您能否让我们了解一下,也许一年前这个数字是多少,您看到的来自推理的 LLM 增长有多少?您是如何衡量的?我猜在某些情况下,您用于训练和推理的 GPU 可能是相同的。这种测量有多可靠?谢谢。

黄仁勋

我会倒过来说。这个估计可能被低估了。但我们进行了估计。让我告诉你为什么。一年前,人们使用的推荐系统,当你浏览互联网、新闻、视频时, 音乐,以及向您推荐的产品,正如您所知,互联网上有数以万计的东西,我不知道有多少万,但是有数以万计的东西,而您的手机只有 3 英寸见方。因此,它们能够将所有这些信息压缩到如此小的空间,是通过一个系统,一个称为推荐系统的神奇系统。

这些推荐系统过去都是基于 CPU 方法的。但是最近转向深度学习,现在又发展到生成式人工智能,真的让这些推荐系统直接融入了 GPU 加速的路径。它需要 GPU 加速来进行嵌入。它需要 GPU 加速来进行最近邻搜索。它需要 GPU 加速来进行重新排序,还需要 GPU 加速为您生成增强信息。

因此,GPU 现在在推荐系统的每一个步骤中都扮演着重要角色。正如您所知,推荐系统是地球上最大的软件引擎。几乎世界上每家主要公司都必须运行这些庞大的推荐系统。 在您使用 ChatGPT 时,它正在被推断。每当您听到 Midjourney 以及他们为消费者创造的各种产品时,当您看到我们与 Getty 和 Adobe 的 Firefly 合作时。这些都是生成模型。清单还在继续。正如我提到的,所有这些在一年前都是全新的。

运营人员

您接下来的问题来自伯恩斯坦研究的 Stacy Rasgon。请发问。

Stacy Rasgon

嗨,各位。感谢您回答我的问题。我想问一下 Colette - 我想谈谈您提到您预计下一代产品 - 我猜这意味着 Blackwell,会受到供应限制。您能详细解释一下吗?是什么驱动了这一点?为什么在 Hopper 放松的情况下会受到限制?您预计这种限制会持续多久,比如您是否预计下一代产品会一直受到限制,直到 2025 年,那时情况会有所缓解吗?

黄仁勋 总的来说,我们的供应链正在全面改善。从晶圆、封装、存储器到所有的电源调节器、收发器、网络和电缆等各个方面,我们的供应链团队为我们做出了不可思议的贡献。我们所运输的零部件清单非常长,正如你所知,人们认为英伟达的 GPU 只是一块芯片。但是,英伟达的霍普 GPU 有 35,000 个零部件,重达 70 磅。这些确实是我们构建的非常复杂的东西。有充分理由称之为 AI 超级计算机。如果你曾经看过数据中心的后方,系统、布线系统让人难以置信。这是世界上迄今为止最密集复杂的网络布线系统。

我们的 InfiniBand 业务同比增长了 5 倍。供应链真的在支持我们方面做得非常出色。因此,总体而言,供应正在改善。我们预计需求将继续强劲,超过我们的供应能力,并且在全年内我们将尽力而为。生产周期正在改善,我们将继续尽最大努力。 然而,每当我们推出新产品时,你知道的,从零到非常庞大的数字需要一个过程,这不是一蹴而就的。一切都是逐步增长的,而不是一步到位。

所以每当我们推出新一代产品时 -- 目前,我们正在推出 H200。在短期内,随着我们的推出,需求是无法合理满足的。我们正在推出 Spectrum-X。我们在 Spectrum-X 上表现出色。这是我们全新进入以太网世界的产品。InfiniBand 是人工智能专用系统的标准。以太网搭载 Spectrum-X -- 以太网并不是一个很好的横向扩展系统。

但是通过 Spectrum-X,我们增加了、叠加了以太网的基本新功能,如自适应路由、拥塞控制、噪音隔离或流量隔离,以便优化以太网用于人工智能。因此,InfiniBand 将成为我们的人工智能专用基础设施。Spectrum-X 将成为我们的人工智能优化网络,目前正在推广,因此我们 -- 随着所有新产品的推出,需求大于供应。这就是新产品的性质,因此我们会尽快工作以满足需求。 总的来说,总体而言,我们的供应情况发展得非常顺利。

运营人员

下一个问题来自 TD Cowen 的 Matt Ramsay。请发问。

Matt Ramsay

下午好,Jensen,Colette。恭喜你们的成绩。我想问一个两部分的问题,也是关于 Stacy 刚提到的需求明显高于供应,尽管供应正在改善。我想问的问题有两个方面,首先是针对 Colette,你们如何考虑产品分配,以客户准备部署和监控产品是否有可能积压未启用的情况?

然后我想问 Jen-Hsun,我很想听听你谈谈你和你的公司如何考虑将产品分配给竞争对手、跨行业的客户,包括小型初创公司,以及医疗保健领域和政府等领域。您正在实现的技术非常独特,我很想听听您对如何考虑产品分配的看法。 在您提到的问题中,首先感谢您关于我们如何与客户合作,帮助他们构建 GPU 实例以及我们的分配过程。我们与合作伙伴合作多年,协助他们在云端和内部搭建架构,服务于各种不同的需求。许多供应商同时推出多种产品,以满足终端客户的需求,同时也满足内部需求。因此,他们提前考虑到未来可能需要的新集群。我们与他们的讨论不仅涉及到我们的 “Hopper” 架构,还帮助他们了解下一个发展浪潮,引起他们的兴趣,了解他们对需求的展望。

因此,客户的采购计划总是在不断变化,有些仍在建设中,有些已经投入使用,以满足我们的终端客户的需求。 然而,我们建立的关系以及他们对产品复杂性的理解确实帮助我们进行了资源分配,并且帮助我们与他们的沟通。

首先,我们的云服务提供商对我们的产品路线图和转型有非常清晰的了解。与云服务提供商的透明沟通让他们对应该在何时何地放置哪些产品有了信心。因此,他们知道最大程度上的时间安排。他们知道数量,当然也知道分配情况。我们公平分配资源。我们尽最大努力公平分配资源,避免不必要的分配。

正如您之前提到的,如果数据中心尚未准备好,为何要分配资源。没有比让任何东西闲置更困难的事情了。因此,我们要公平分配资源,避免不必要的分配。至于您提到的最终市场,我们与原始设备制造商、原始设计制造商、云服务提供商以及非常重要的最终市场建立了卓越的生态系统。NVIDIA 真正独特的地方在于我们与客户建立了联系, 我们将我们的合作伙伴、CSP 和 OEM 带给他们客户。

生物科技公司、医疗保健公司、金融服务公司、人工智能开发者、大型语言模型开发者、自动驾驶车辆公司、机器人公司。涌现出一大批机器人公司。从仓储机器人到外科手术机器人再到仿人机器人,各种各样非常有趣的机器人公司,还有农业机器人公司。所有这些初创公司、大公司、医疗保健、金融服务、汽车等等都在 NVIDIA 的平台上工作。我们直接支持他们。

通常情况下,我们可以通过分配给 CSP 并同时将客户引荐给 CSP 来实现双赢。因此,这个生态系统,您完全正确,它是充满活力的。但在其核心,我们希望公平分配,避免浪费,并寻找连接合作伙伴和最终用户的机会。我们一直在寻找这些机会。

运营商

下一个问题来自瑞银的 Timothy Arcuri。 您的线路已打开。

蒂莫西·阿库里

非常感谢。我想问一下关于您如何将积压订单转化为收入的情况。显然,您的产品交货周期已经大大缩短。科莱特,您没有提到库存采购承诺。但如果我把您的库存加上采购承诺以及预付供应的总和,也就是您的供应总量,实际上略有下降。我们应该如何解读这一点?这是不是意味着您说您不需要对供应商做出太多的财务承诺,因为交货周期较短,还是您可能已经接近填满订单簿和积压订单的稳定状态?谢谢。

科莱特·克雷斯

是的。让我来重点谈谈我们如何看待供应商的这三个不同领域。您是正确的。鉴于我们的分配情况,我们手头的库存,我们正在努力,一旦有货物进入库存,立即开始发货给我们的客户。我认为我们的客户欣赏我们能够按照我们设定的时间表满足交货要求。 关于我们的采购承诺,有很多不同的组成部分,这些组成部分是我们制造所需的。但通常情况下,我们正在采购可能需要的产能。对于这些产能或组件的需求时间长短各不相同。有些可能是未来两个季度的,但也有一些可能是多年的。

关于我们的预付款,情况也是类似的。我们的预付款是预先设计的,以确保我们在未来几个制造供应商那里拥有所需的储备产能。因此,不要对我们的供应量增加与之大致相同的数字有所误解。所有这些只是因为有时我们不得不在长交货期或需要为我们建造产能的情况下购买物品。

操作员

下一个问题来自 Melius Research 的 Ben Reitzes。请您发问。

Ben Reitzes

是的。谢谢。恭喜你们的成绩。Colette,我想谈一下您关于毛利率的评论,即它们应该回到中 70%。 如果您不介意详细解释一下。另外,这是否是由于新产品中的 HBM 内容,您认为是什么因素导致了这一评论?非常感谢。

Colette Kress

是的。感谢您的提问。我们在开场白中强调了我们第四季度的业绩和我们对第一季度的展望。这两个季度都是独特的。这两个季度的毛利率独特之处在于它们包含了来自供应链中计算和网络方面的有利组件成本以及我们制造过程中几个不同阶段的一些好处。

展望未来,我们对本财年剩余时间的毛利率有了一定的可见性,将使我们回到在这里经历的这个第四季度和第一季度的高峰之前的水平,大约在中 70% 左右。因此,我们真正关注的是产品组合的平衡。产品组合始终是我们未来一年将要发货的最大驱动因素。这些就是真正的驱动因素。

运营商

您的下一个问题来自 Cantor Fitzgerald 的 C.J. Muse。 您的线路已打开。

C.J. Muse

是的。下午好,感谢您回答问题。对您来说,Jen-Hsun,更宏观的问题。当您考虑过去十年中 GPU 计算性能提升了几百倍,以及对未来类似提升的期望时,您的客户如何看待他们今天所做的 NVIDIA 投资的长期可用性?今天的训练集群会变成明天的推断集群吗?您如何看待这一情况的发展?谢谢。

Jensen Huang

嘿,CJ。感谢您的问题。是的,这真的很酷。如果您看一下我们之所以能够如此大幅提升性能的原因,那是因为我们的平台具有两个特点。一是加速。二是可编程。它不是脆弱的。NVIDIA 是唯一一种架构,从一开始,从 CNN、Alex Krizhevsky、Ilya Sutskever 和 Geoff Hinton 首次展示 AlexNet 的那一刻,一直到 RNN、LSTM,再到每一个版本的 RL,再到深度学习 RL,再到 transformers,每一个版本都有。 每一个版本,每一个种类,无论是视觉变换器、多模态变换器,还是时间序列处理,每一个变种,每一个种类的人工智能,我们都能够支持并优化我们的技术栈,将其部署到我们的现有基础设施中。这真的是一个了不起的部分。一方面,我们可以发明新的架构和新技术,比如我们的张量核心,比如我们为张量核心设计的变换器引擎,改进新的数值格式和处理结构,就像我们为不同一代张量核心所做的那样,同时又支持现有基础设施。

因此,我们将所有新的软件算法投资,所有的发明,行业中的新模型,一方面在我们的现有基础设施上运行。另一方面,每当我们看到一些革命性的东西,比如变换器,我们可以创造出全新的东西,比如霍普变换器引擎,并将其实现到未来中。 因此,我们同时具备将软件带给现有用户群并不断改进的能力,让我们的客户群体随着时间的推移而受益于我们的新软件。

另一方面,针对新技术,创造革命性的能力。如果在我们的未来一代中,突然间实现了大规模语言模型的惊人突破,也不要感到惊讶。这些突破中,有些将体现在软件中,因为它们运行 CUDA,将会提供给现有用户群。因此,我们一方面带领着每个人,另一方面取得了巨大的突破。

运营商

下一个问题来自富国银行的 Aaron Rakers。请提问。

Aaron Rakers

是的。感谢您回答问题。我想问问关于中国业务的事情。我知道在您的准备好的评论中提到您已经开始向中国提供一些替代解决方案。您还表示预计这一贡献将继续占您整个数据中心业务的中单位数百分比。 在中国市场,我们今天运送的产品范围有多广,为什么我们不应该期待其他替代方案进入市场并扩大您的参与机会呢?谢谢。

Jensen Huang

首先要明白,美国政府希望限制英伟达在中国市场的最新加速计算和人工智能能力。美国政府希望我们在中国取得尽可能成功的成绩。在这两个约束条件下,在这两个支柱内,就是这些限制,因此当新的限制出台时,我们不得不暂停。我们立即停下来,以便了解限制是什么,重新配置我们的产品,使其在任何方面都无法被软件黑客攻击。这需要一些时间。因此,我们重新调整了我们在中国的产品供应,并现在向中国客户提供样品。

我们将尽最大努力在该市场竞争并取得成功,同时遵守这些限制的规定。 因此就是这样。在上个季度,我们的业务显著下降,因为我们在市场上暂停了。我们停止了在市场上的发货。我们预计这个季度会差不多。但之后,希望我们可以竞争我们的业务并尽力而为,我们会看看结果如何。

运营商

下一个问题来自 Piper Sandler 的 Harsh Kumar。请发言。

Harsh Kumar

嗨,Jen-Hsun,Colette 和 NVIDIA 团队。首先,恭喜你们取得了惊人的季度业绩和指引。我想谈谈你们的软件业务,很高兴听到它已经超过 10 亿美元,但我希望 Jen-Hsun 或 Colette 能帮助我们了解软件业务的不同部分和组成?换句话说,帮助我们解开一下,让我们更好地了解增长来自何处。

Jensen Huang

让我退后一步,解释一下为什么 NVIDIA 在软件方面会非常成功的根本原因。 首先,正如您所知,加速计算在云端得到了很大发展。在云端,云服务提供商拥有庞大的工程团队,我们与他们合作的方式使他们能够运营和管理自己的业务。每当出现任何问题时,我们都会为他们指派庞大的团队。他们的工程团队直接与我们的工程团队合作,我们不断改进、修复、维护和补丁涉及加速计算的复杂软件堆栈。

正如您所了解的,加速计算与通用计算非常不同。您不是从像 C++ 这样的程序开始。您编译它,然后在所有 CPU 上运行。每个领域所需的软件堆栈都不同,从数据处理 SQL 结构化数据到所有的图像、文本和 PDF 等非结构化数据,再到经典机器学习、计算机视觉、语音和大型语言模型,以及推荐系统等。所有这些都需要不同的软件堆栈。这就是为什么英伟达拥有数百个库的原因。 如果没有软件,就无法开拓新市场。如果没有软件,就无法开发和实现新的应用。

软件对于加速计算是基本必需的。这是加速计算与大多数人花费很长时间才理解的通用计算之间的根本区别。现在,人们明白软件真的很关键。我们与云服务提供商合作的方式非常简单。我们有庞大的团队与他们的庞大团队合作。

然而,现在生成式人工智能正在让每家企业和每家企业软件公司都能够拥抱加速计算——而且——现在必须拥抱加速计算,因为仅仅通过通用计算已经不再可能,也不太可能维持改进的吞吐量。所有这些企业软件公司和企业公司都没有庞大的工程团队来维护和优化他们的软件堆栈,使其能够在全球所有的云、私有云和本地环境中运行。 我们将为他们所有的软件堆栈进行管理、优化、打补丁、调优和安装基础优化。然后将它们容器化到我们的堆栈中。我们称之为 NVIDIA AI Enterprise。我们推出的方式是,把 NVIDIA AI Enterprise 看作一个运行时,就像一个操作系统,它是人工智能的操作系统。

我们每年收取每块 GPU 4,500 美元。我猜想,全球每家企业,每家在所有云端、私有云和本地部署软件的软件企业,都会在 NVIDIA AI Enterprise 上运行,特别是显然是为了我们的 GPU。随着时间的推移,这很可能会成为一个非常重要的业务。我们已经有了一个很好的开端。Colette 提到它已经达到 10 亿美元的年收入率,而我们只是刚刚开始。

运营人员

谢谢。现在我将把电话交回给首席执行官黄仁勋,以结束讲话。

黄仁勋 在同一时间,计算机行业正在进行两项平台转变。拥有万亿美元的数据中心已经从通用用途转向加速计算。每个数据中心都将进行加速,以便世界能够满足不断增长的计算需求,提高吞吐量,同时控制成本和能源消耗。NVIDIA 带来的令人难以置信的加速,开启了一个全新的计算范式,生成式人工智能,软件可以学习、理解并生成从人类语言到生物结构和 3D 世界的任何信息。

我们现在正处于一个全新行业的起步阶段,AI 专用数据中心处理海量原始数据,将其精炼为数字智能。就像上一次工业革命的交流电发电厂一样,NVIDIA 的 AI 超级计算机本质上是这次工业革命的 AI 生成工厂。每个行业中的每家公司都基于其专有的商业智能构建,未来也将基于其专有的生成式人工智能。 Generative AI 已经开启了全新的投资周期,以构建下一个价值万亿美元的人工智能生成工厂基础设施。我们相信这两种趋势将推动世界数据中心基础设施装机量在未来五年内翻倍,并将代表每年数千亿美元的市场机会。这种新的人工智能基础设施将开辟一整个新的应用世界,这是今天所无法实现的。我们从超大规模云服务提供商和消费互联网公司开始了人工智能之旅。现在,每个行业都加入了,从汽车到医疗保健,金融服务,工业,电信,媒体和娱乐。

英伟达的全栈计算平台具有行业特定的应用框架和庞大的开发者和合作伙伴生态系统,为我们提供了速度、规模和覆盖范围,帮助每家公司——帮助各行各业的公司成为人工智能公司。我们在下个月的圣何塞 GTC 大会上有很多内容要与您分享。所以一定要加入我们。我们期待在下个季度向您汇报我们的进展。