
Huang Renxun confidently stated: The data center business is worth 250 billion yuan a year, and NVIDIA will grab the majority of the "cake"

黄仁勋说,他预期数据中心将是一块非常大的业务。每年全球对数据中心设备投入的费用将共计 2500 亿美元,英伟达产品在其中占据的份额将超过其他芯片生产商。
作者:李丹
来源:硬 AI
在人工智能(AI)领域开发者盛会——英伟达 2024 GTC 期间,英伟达创始人兼 CEO 黄仁勋自信地放出豪言,英伟达会在一年可 “掘金” 几千亿美元的数据中心市场抢到更多的 “蛋糕”。
在美国加州当地时间 19 日周二 GTC 大会期间举行的投资者活动上,黄仁勋告诉与会者,因为英伟达生产的芯片和软件种类繁多,所以公司处于有利地位,在全球数据中心设备的支出中,会有一大部分都来自英伟达的产品。
黄仁勋预计,每年全球对数据中心设备投入的费用将共计 2500 亿美元,英伟达产品在其中占据的份额将超过其他芯片生产商。英伟达正致力于开发软件,以便各行各业采用和使用 AI 技术。英伟达提供 AI 模型和其他软件,然后根据客户的算力和运行的芯片数量向客户收费。
黄仁勋说,“以我的预期,这(数据中心)将是一块非常大的业务。”
在今年 GTC 大会揭幕当天,本周一,英伟达刚刚发布了号称全球最强大 AI 芯片的 Blackwell 架构 GPU,该架构的首款 GPU B200 将成本和能耗较前代 H100 改善 25 倍,推理能力提升高达 30 倍。它拥有第二代 Transformer 引擎,可提供高达 20 petaflops 的 FP4 算力,浮点运算速度是 H100 4 petaflops 的五倍。
将两个 B200 GPU 与单个 Grace CPU 结合在一起的超级芯片 GB200,可为 LLM 推理工作负载提供 30 倍的性能,并且显著提高效率。在拥有 1750 亿参数的 GPT-3 大模型基准测试中,GB200 芯片性能是 H100 的 7 倍,训练速度是 H100 的 4 倍。业内惊呼新的摩尔定律诞生。网上评论称,Blackwell 标志着在短短八年内,英伟达 AI 芯片的计算能力实现了提升 1000 倍的历史性成就。
在周一 GTC 大会上的主题演讲中,黄仁勋将 Blackwell 和英伟达专为数据中心设计的上一代芯片架构 Hopper做了对比。他说,如果要训练一个 1.8 万亿参数 GPT 模型,大约需要三到五个月的时间:
如果用 Hopper(架构)来做,可能需要 8000 个 GPU,并且会消耗 15 兆瓦(电力)。8000 个 GPU 和 15 兆瓦,它会需要 90 天,大约三个月的时间。
如果你用 Blackwell(架构)来做,只需要 2000 个 GPU。2000 个 GPU,同样的 90 天。但这是惊人的部分,只需要四兆瓦的电力。
黄仁勋透露,包括亚马逊云 AWS、谷歌、微软、甲骨文等,都在为支持 Blackwell 做准备。同时英伟达将持续基于 AI 强化生态,比如英伟达 NOmniverse Cloud 将可以连接到苹果公司混合头显 Vision Pro、加强模型与通用机器人生态等。
黄仁勋还介绍了人形机器人基础模型 Project GR00T、新款人形机器人计算机 Jetson Thor,还与一对来自迪士尼研究公司的小型英伟达机器人进行互动。
