走出低谷,拥抱 AI 大时代(英伟达 FY24Q1 电话会)

一、FY24Q1 财报概括

1. 收入端:$ 英伟达.US 营收 71.92 亿美元,YoY-13%,超出市场预期(10.39% beat)。

2. 盈利端:Non-GAPP 净利润 27.13 亿美元,YoY-21%,超出市场预期(19.53% beat);净利润率 37.72%,YoY-3.82pct,超出市场预期(3.64pct beat)。

3. FY2Q24 指引:

(1)收入:110 亿美元左右,上下浮动 2%。

(2)GAPP 和 Non-GAPP 毛利率:分别为 68. 6% 和 70%,上下浮动 50 个基点。

(3)GAPP 和 Non-GAPP 运营费用:分别为 27. 1 亿美元和 19 亿美元。

(4)GAPP 和 Non-GAPP 其他收入和支出:9000 万美元,其中不包括非附属投资的收益和损失。

(5)GAPP 和 Non-GAPP 税率:14%,上下浮动大概是 1%。

(6)资本支出:3 - 3.5 亿美元。

二、业绩会小结

一、增量信息:

(1)数据中心业务:推出 4 个推理平台(L4、L40、H100、Grace Hopper);Google Cloud 成为第一家提供 L4 Tensor Core GPU 的 AIGC 云服务商;AWS、Google Cloud、Azure、Oracle Cloud Infrastructure 开始提供 H100 Tensor Core GPU 的云服务产品(DGX)。

(2)游戏业务:推出 4060 GPU、4070 GPU;DLSS 支持游戏数增加 33 个至 300 个。

(3)专业可视化业务:宣布推出 Omniverse Cloud;Omniverse 将接入 Microsoft 365;推出 6 款新 RTX GPU。

(4)汽车与自动驾驶业务:汽车定点未来 6 年内将增长至 140 亿美元,高于一年前的 110 亿美元;比亚迪新车型将使用 Orin。

二、业绩会原文

(一)管理层发言

【1】业绩表现

1. 数据中心

1Q 收入为 79 亿美元,环比增长 19%,同比下降 13%。强劲环比增长来自创纪录的数据中心收入,及游戏和专业可视化平台渠道库存调整。数据中心 42.8 亿美元收入创纪录,环比增长 18%,同比增长 14%,得益于全球计算平台的强劲增长加速。

生成式 AI 正在推动计算需求呈指数级增长,并快速过渡到 NVIDIA 加速计算,这是训练和部署 AI 的最通用、最节能、TCO 最低的方法。生成式 AI 推动了对公司产品需求的显着增长,客户类别横跨三大领域,云服务提供商(CSP)、消费者互联网公司和企业。全球首批 CSP 竞相部署旗舰 Hopper 和 Ampere 架构 GPU,以满足企业和消费 AI 应用程序对训练和推理的激增需求。

多个 CSP 宣布在其平台上提供 H100,如 AWS、Google Cloud、Azure、Oracle Cloud Infrastructure 开始提供 H100 Tensor Core GPU 的云服务产品(DGX)。除了企业采用 AI 之外,这些 CSP 还满足生成 AI 先驱对 H100 的强烈需求。其次,消费互联网公司也处于采用生成人工智能和基于深度学习的推荐系统的前沿,推动了强劲增长,如 Meta 人工智能生产和研究团队已经部署了由 H100 驱动的 Grand Teton 人工智能超级计算机。

第三方企业对人工智能和加速计算的需求强劲,汽车、金融服务、医疗保健和电信等垂直领域的发展势头猛烈,人工智能和加速计算正迅速成为客户创新路线图和竞争定位的内部调用。如,彭博宣布其拥有价值 500 亿美元的参数模型编号 GPT,用于帮助金融自然语言处理任务,包括情感分析命名实体识别最近分类和问答。汽车保险公司 CCC 智能解决方案正在使用 AI 进行维修估算。AT&T 正在与公司合作开发人工智能,以改善车队调度,以让现场技术人员更好地为客户服务。使用 NVIDIA AI 的其他企业客户包括,用于物流和客户服务的 Dubourg 和用于药物发现和蛋白质工程的 Amgen。

本季度,开始出货 DGX H100 的 Hopper AI 系统,客户可以在本地部署该系统;并与 Microsoft Azure、Google Cloud 和 Oracle Cloud Infrastructure 的合作推出 DGX Cloud

无论客户是在本地部署 DGX 还是通过 DGX Cloud 部署,都可以访问 NVIDIA AI 软件,包括基于 NVIDIA 的命令和 AI 框架以及预训练模型。公司为他们提供构建和操作 AI 的蓝图,扩展在系统算法数据处理和培训方法方面的专业知识。推出 NVIDIA AI Foundation 大模型服务,这是 DGX Cloud 上提供的模型训练服务,使企业能够构建、改进和操作自定义大型语言模型和生成 AI 模型,这些模型使用自己的专有数据进行训练,以完成独特的领域特定任务,包括用于大型语言模型的 NVIDIA Nemo、用于图像视频和 3D 的 NVIDIA Picasso 以及用于生命科学的 NVIDIA BioNemo。每一个都有六个元素的预训练模型框架,用于数据处理和管理基于知识的专有部门数据库。用于微调对齐和 Garberding 优化推理引擎的系统以及来自 NVIDIA 专家的支持,可帮助企业针对其客户用例微调模型。领先的企业服务平台 ServiceNow 是 DGX 云和 Nemo 的早期采用者,他们开发了经过数据训练的定制大型语言模型,专门针对 ServiceNow 平台,公司将与 ServiceNow 合作,创建新的企业级生成 AI 产品。全球企业都可在 ServiceNow 平台上运行,包括 IT、客户服务和开发人员。

生成式 AI 还推动了阶跃增长。4 月发布的最新 AEMO perf 行业基准测试显示 NVIDIA 的推理平台提供的性能领先于行业几个数量级,并且具有跨不同工作负载的无与伦比的多功能性。

为帮助客户在 GTC 上部署大规模的生成式 AI 应用程序,推出四个主要的新应用程序:L4、L40、H100、Grace Hopper。

Google Cloud 是第一个采用 L4 推理平台的 CSP,推出了用于生成式 AI 推理的 G2 虚拟机等,呈现 3D 和增强现实体验。此外,Google 正在将 Triton 和 French 服务器与 Google Kubernetes 引擎及其基于云的 Vertex AI 平台相集成。

CSP 和企业客户对生成式 AI 和加速计算的需求强烈,需要 Mellanox 网络平台这样的高性能网络;与通用 CPU 基础设施相关的需求仍然疲软。

随着生成式 AI 应用程序的规模和复杂性不断增加,高性能网络对提供加速计算和数据中心规模以满足对训练和推理的巨大需求至关重要。NVIDIA Quantum-2 InfiniBand 是 AI 专用基础设施的黄金模板,在主要云和消费互联网平台(如 Microsoft Azure)中得到广泛采用。

结合网络内计算技术和业界唯一的端到端数据中心规模,经过优化的软件库存客户通常可以将其大规模基础设施投资的吞吐量提高 20%。对于多租户云过渡以支持生成 AI,高速以太网平台配备 BlueField 和用于以太网交换的 Spectrum,可提供最高的可用以太网网络性能。

Bluefield 3 在生产中,并已被多个超大规模和 CSP 客户采用,包括 Microsoft Azure Oracle Cloud 、百度等。

Grace 数据中心 CPU 在本周于德国举行的国际超级计算大会上向客户提供样品,布里斯托大学宣布了一款基于 NVIDIA Grace CPU SuperChat 的新型超级计算机,其能效是之前超级计算机的六倍。这进一步推动了 Grace 在 CPU only 和 CPU、GPU 跨 AI 和云以及超级计算应用程序方面的增长势头。即将到来的 Bluefield3 Grace 和 Grace Hopper superchat 浪潮将使新一代超级节能加速变成现实。

2. 游戏

收入为 22.4 亿美元,环比增长 22%,同比下降 38%。用于笔记本电脑和台式机的 40 系列 GeForce RTX GPU 的销售推动了强劲的环比增长。总体而言,需求稳健且符合季节性,显示出在充满挑战环境中的韧性。

GeForce RTX 40 系列 GPU 笔记本电脑为游戏玩家和创作者带来了工业设计性能和电池寿命方面的巨大收益。

40 系列笔记本电脑,支持 NVIDIA Studio 平台软件技术,包括加速创意、数据科学和 AI 工作流程,以及为内容创作者提供无与伦比的工具和功能的 Omniverse。在台式机中,提升了 RTX 4070,加入了之前推出的 RTX 4090 4080 和 4070 Ti, GPU 的 RTX 4070 比 RTX 2070 快近三倍。

上周,推出了 60 系列 RTX4060 和 4060 Ti,将最新的架构带给全球核心游戏玩家,起价仅为 299 美元,这是 GPU 首次提供主流价位的最新游戏机性能。4060Ti 从今天开始提供,4060 将在 7 月提供。

在本周早些时候的 Microsoft Build 开发者大会上,展示了配备 NVIDIA RTX GPU 的 Windows PC 和工作站将如何支持 AI 户外通话。和微软在端到端软件工程方面展开合作,从 Windows 操作系统 NVIDIA 图形驱动程序和 Nemo 框架,以帮助使基于 NVIDIA RTX GPU 的 Windows 成为生成 AI 的增压平台。

上季度,宣布与微软建立合作伙伴关系,将 Xbox PC 游戏引入 GeForce。第一款游戏 Gears 5 现已上市,未来几个月将发布更多游戏;GeForce NOW 上现在有超过 1600 款游戏。

3. 专业可视化

收入为 2.95 亿美元,环比增长 31%,同比下降 53%。环比增长系公共部门医疗保健和汽车等关键垂直领域对工作站的强劲需求推动的;渠道库存调整已经过去。

推出六款适用于笔记本电脑和台式机工作站的全新 RTX GPU,并计划在未来几个季度进一步推出新产品。

生成式 AI 是公司支持的工作站的主要新工作负载。与微软的合作将 Windows 转变为理想的平台,创作者利用生成 AI 来提高他们的创造力和生产力。在 GTC 推出了 NVIDIA Omniverse 云、NVIDIA 全托管服务运行以及 Microsoft Azure,包括全套 Omniverse 应用程序和使用此全堆栈云环境的 NVIDIA OVX 基础设施,客户可以设计、开发、部署和管理工业元宇宙应用程序;NVIDIA Omniverse 云将从今年下半年开始提供。

将 Office 365 应用程序与 Omniverse 连接起来;汽车行业一直是 Omniverse 的早期采用者,包括宝马、捷豹、路虎。

4. 汽车与自动驾驶

营收为 2.96 亿美元,环比增长 1%,同比增长 114%。强劲的同比增长是由 NVIDIA Drive Orin 在许多新能源汽车上的增长推动。

汽车定点未来 6 年内将增长至 140 亿美元,高于一年前的 110 亿美元。不过,由于中国的一些 NAV 客户由于需求低于预期而调整生产计划,因此增长放缓,此趋势在今年余下的时间里持续。

本季度,扩大了与比亚迪的合作伙伴关系。比亚迪是全球领先的 NAV 制造商,公司的新设计将比亚迪对 Drive Orin 的使用扩展到其下一代大批量 Dynasty 和 ocean 系列车辆,这些车型将在 2024 生产。

【2】FY2Q24 指引

(1)收入:110 亿美元左右,上下浮动 2%。

(2)GAPP 和 Non-GAPP 毛利率:分别为 68. 6% 和 70%,上下浮动 50 个基点。

(3)GAPP 和 Non-GAPP 运营费用:分别为 27. 1 亿美元和 19 亿美元。

(4)GAPP 和 Non-GAPP 其他收入和支出:9000 万美元,其中不包括非附属投资的收益和损失。

(5)GAPP 和 Non-GAPP 税率:14%,上下浮动大概是 1%。

(6)资本支出:3 - 3.5 亿美元。

(二)Q&A

Q:在数据中心方面,从 4 月到 7 月,进一步发展的驱动因素;下半年的可见性更多受供应侧制约,2Q 后(7 月季度后)供应链所能支撑的环比增长

A:【1】数据中心进一步发展的驱动因素

预计 2Q 和 1Q 相比,AI 会有进一步的发展。众所周知,生成式 AI 和大语言模型都在如火如荼地向前推进,相关需求非常强劲。公司与消费互联网公司有密切合作,而 CSPs 和 AI 初创公司也对英伟达的新旧架构都非常感兴趣,Hopper 和 Hopper 之前的架构都非常受欢迎。这并不奇怪,因为公司通常同时出售两种架构,这也是深度推荐推动增长的关键领域,预计计算和网络业务会增长。

【2】数据中心供应链

2Q 指引已充分考虑各方面的因素,目前正在处理本季度的供应链问题,下半年供应链方面会有进一步的举措,已为下半年采购了大量的物资和原材料,希望在供应链方面有更好的保障以满足强劲客户需求。客户非常广泛,其中有的是正在为一些大型公司搭建平台,有的是 CSPs 和消费互联网公司。

数据中心进一步强劲发展的势头至少会持续几个季度,前景非常好,会努力快速采购以满足下半年的大量供应。

Q:推动服务器加速的进展;如何与 TSMC 及其他合作伙伴合作,如交货时间和供需展望

A:公司正在全面生产 Hopper 和 Ampere 相关产品,这些新产品将更好地服务于 AI 场景,大量的技术、知识正在逐渐汇集以支持 AI 的发展,这也是公司将其视为下一轮 “iPhone 时刻” 的原因。

数据中心市场正在朝向加速计算的方向发展,而且已经发展了一段时间,公司积累 15 年的技术足以让整个数据中心的主要应用得到加速,并降低能耗和成本,AIGC 的出现加速了这个进程。

过去全球接近 1 万亿美元的数据中心市场由 CPU 主导,而未来 AI 将成为大多数数据中心的主要工作负载,因此预算将向加速计算倾斜,从传统计算转向 GPU、智能 NIC。

订单方面,过去 10 年数据中心订单持续增长,未来增长趋势持续。希望抓住当前的 AI 拐点,实现数据中心方面更进一步的增长。

Q:面对新的需求形势,公司与包括台积电在内的供应商的关系发生了什么变化;如何更好地实现供需匹配

A:超级计算机是一个巨型系统,公司目前正在全力生产相关产品,除了 GPU 以外,整个超级计算机系统包括 3.5 万个零组件,以及网络通信、光纤、NIC、智能 NIC 等组件,公司正在提高采购量。

Q:数据中心在 Q3、Q4 是否能维持增长

A:首先,公司并不会对下半年的具体情况做出指引,但下半年的需求是有可见度的,公司也在积极提高采购量以满足下半年的成长,H2 的供应量将大于 H1

Q:竞争格局是否会发生变化;定制 ADIC 是否将带来更多挑战;未来 2-3 年内是否会出现更多竞争者

A:(1)资金雄厚且技术具有创新性的初创竞争者数不胜数,竞争始终存在。

(2)公司的核心价值主张是为客户提供成本最低的解决方案——这是一个全栈的问题,不仅仅是一个芯片的架构,还有对整个数据中心架构的优化,公司目前有 400 个加速库提供支持,这是很惊人的规模;AI 的应用进一步放大了全栈布局的重要性,包括网络、分布式计算引擎、计算架构在内的整个系统实际上是一个电脑,未来获得最佳性能,就需要全栈式的解决方案,这就是加速计算的价值。

(3)利用率代表可以加速的应用程序数量,高利用率需要架构的多功能性来保持,为此公司采用通用 GPU 的策略。

(4)经验,也就是对数据中心的专业知识,英伟达已经建立了 5 座自有数据中心,并帮助世界各地的客户建立数据中心,公司的架构将集成到世界所有云中。过去数据中心从产品交付到实际部署的运营时间是按照月衡量的,超级计算机甚至要到年的维度,公司将致力于将交付周期缩短到数周的维度,这会是公司专业度的体现。

综上,高吞吐量、低成本、专业度是公司的价值主张和竞争力,当然,来自市场的挑战始终很大。

Q:AI Enterprise 套件和其他软件产品目前的定位和驱动力

A:软件对于加速平台很重要,这些服务正逐步部署于 DGX Cloud,本质上是 AI 的操作系统,随着 AI 和硬件架构发展,软件的可用性和货币化潜力将继续得到发挥,推理现在是加速计算的主要驱动力。

企业方面,大语言模型和其他细分场景都产生软件堆栈的需求,英伟达 AI Foundation 和 AI Enterprise 能够满足企业客户新的需求,其中 AI Enterprise 是世界唯一的 GPU 加速堆栈,包括了 4000 多个软件包,覆盖 AI 运行引擎、端到端的运行引擎,为数据处理、模型训练、模型优化、推理等流程提供服务,同时也能保证安全性。

工业方面,Omniverse 是工业中软件定义和机器人应用的重要引擎,也将成为一个云服务平台。

综上,AI Foundation、AI Enterprise 和 Omniverse 将应用于所有与 DGX Cloud 有合作的云中。

Q:对 InfiniBand 和以太网的技术竞争关系的看法

A:InfiniBand 本季度创纪录,今年全年预计也将创季度。

InfiniBand 和以太网有各自的需求场景,前者是为 AI 数据中心设计的,对于 5 亿美元的基础建设,两者之间的吞吐量差异可能是 15%-20%,对于 1 亿美元,InfiniBand 接近于免费。

因此,如果数据中心是云数据中心且有多个租户,以太网更加适合,对于 AI 云,由于需要 AIGC 的工作负载,InfiniBand 会更加合适,这是一个细分的增量市场。

Q:后续回购计划

A:公司目前仍有 70 亿美元的回购额度,上季度没有做回购,公司将视情况做调整。

Q:推理的市场空间是训练的几倍

A:首先,训练是没有尽头的,只要有新的数据,就会有新的训练,构建推荐系统、大预言模型、矢量数据库的训练需求将延续。

推理的部分是 API,API 可能是公司自己构建的,也可能来自 Adobe 等合作方,AI 推理的 API 再一周内呈现指数增长;

综上,世界上有 1 万亿美元规模的数据中心,主要由 CPU 主导,但未来将转向 AI 和加速计算,这是未来资本支出的重心。

Q:对于客户降低大模型每次查询成本的需求,公司将提出什么解决方案

A:一般而言,客户会建立一个大的语言模型,然后逐步拆分成不同规模的模型,这些细分模型在保留个性化的时候也有足够的泛化能力,此外,大模型的优化也能为细分模型提供指引,同样的,公司布局包括 L4、L40、H100 等不同规模的产品,以匹配相应的需求。

此外,模型的输入输出需要大量的预处理和后处理工作,模型本身只占推理流程的 25%,因此,对于多模态的推理工作,公司于合作方在所有云上推广了 AI Enterprise 的相关产品,来提供基础性的功能。

Q:面对计算复杂性、低延迟、大数据等要求,将做出什么改变来进一步释放网络带宽

A:这是一个很关键的环节,实际上大家的关注度都集中在加速器芯片,而忽略了软件和网络,这忽略了公司一直提到的全栈解决方案思路。

对于网络,公司推出了 DOCA 的网络堆栈,以及 Magnum IO 加速库,这两个产品并没有得到投资者的关注,但实际上正是有了这些工具才能实现数以万计的 GPU 连接,对 Mellanox 的收购案进一步提高了公司在高性能网络方面的禀赋。

此外,NVLink 也是一个很重要的产品,在低延迟计算方面带来很多帮助,公司以 NVLink 向外拓展,部署 Infinband、NIC、智能 NIC、BlueField 等产品,公司将在之后的 Computex 大会上做进一步说明。

总而言之,整个计算系统是复杂的,不能仅关注加速器芯片,需要软件和网络的全栈解决方案。

Q:DGX Cloud 的发展近况,及在实际运行中是否挖掘出更多的潜力

A:理想的状态是 10% 来自 DGX Cloud,90% 来自 CSP Cloud。

一方面,DGX Cloud 的构建方式允许公司与 CSP 合作伙伴形成深入合作,以提供更高性能的服务,开发新的应用(比如与微软合作,导入 Omniverse Cloud 等),创造更大的市场,双方是互惠的。

另一方面,对于客户而言,这种模式提供了一个可以在各种云工作的标准堆栈,更方便他们进行软件的管理,这意味着更高的灵活性,这是多方共赢的。

<此处结束>

长桥海豚英伟达历史文章回溯:

深度

2023 年 5 月 25 日财报点评《英伟达:AI 新时代,未来已来

2023 年 2 月 23 日电话会《业绩触底将回暖,AI 才是新焦点(英伟达 FY23Q4 电话会)

2023 年 2 月 23 日财报点评《熬过周期劫,又逢 ChatGPT,英伟达信仰回归

2022 年 6 月 6 日《美股巨震,苹果、特斯拉、英伟达是被错杀了吗?

2022 年 2 月 28 日《英伟达:高增长不假,论性价比还是差点意思

2021 年 12 月 6 日《英伟达:估值不能只靠想象来撑

2021 年 9 月 16 日《英伟达(上):五年二十倍的芯片大牛是如何炼成的?

2021 年 9 月 28 日《英伟达(下):双轮驱动不再,戴维斯双杀来一波?

财报季

2022 年 11 月 18 日电话会《持续走高的存货,在下季度能否被消化?(英伟达 FY2023Q3 电话会)

2022 年 11 月 18 日财报点评《英伟达:利润打了三折,拐点何时才能来?

2022 年 8 月 25 日电话会《对 “闪崩” 的毛利率,管理层怎么解释?(英伟达 FY2023Q2 电话会)

2022 年 8 月 25 日财报点评《陷入泥潭的英伟达,要重走 2018 吗?

2022 年 8 月 8 日业绩预告点评《天雷滚滚,英伟达表演业绩 “自由落体”

2022 年 5 月 26 日电话会《疫情叠加封锁,游戏下滑拖垮二季度业绩(英伟达电话会)

2022 年 5 月 26 日财报点评《“疫情肥” 没了,英伟达业绩长相残了

2022 年 2 月 17 日电话会《英伟达:多芯片推进,数据中心成公司焦点(电话会纪要)

2022 年 2 月 17 日财报点评《英伟达:超预期业绩背后的隐忧 | 读财报

2021 年 11 月 18 日电话会《英伟达怎么构建元宇宙?管理层:聚焦 Omniverse(英伟达电话会)

2021 年 11 月 18 日财报点评《算力爆赚、元宇宙加持,英伟达要一直牛下去?

直播

2022 年 5 月 26 日《英伟达公司 (NVDA.US) 2023 财年第一季度业绩电话会

2022 年 2 月 17 日《英伟达公司 (NVDA.US) 2021 年第四季度业绩电话会

2021 年 11 月 18 日《英伟达公司 (NVDA.US) 2022 年第三季度业绩电话会

本文的风险披露与声明:海豚投研免责声明及一般披露