Wallstreetcn
2024.03.15 06:49
portai
I'm PortAI, I can summarize articles.

英伟达眼里的竞争对手

英伟达股价飙升,成为美股第三大上市公司,CEO 黄仁勋个人财富达到近 700 亿美元。然而,英伟达面临竞争对手的挑战,包括 AMD、英特尔、华为、博通、高通、亚马逊和微软等公司。英伟达在最新财报中列出了竞争对手,包括设计 GPU 的公司、定制芯片和加速计算解决方案供应商、大型互联网服务公司、SoC 产品供应商和互连、交换和电缆解决方案供应商。这些竞争对手让英伟达产生危机感。

英伟达的股价又一次飙上了高点。

在英伟达发布 2024 财年第四季度财报后,这家驱动 AI 发展的公司攀上了一个新的高峰:股价一路升至近 800 美元,总市值近 2 万美元,超越谷歌和亚马逊,成为美股的第三大上市公司。

而 CEO 黄仁勋的个人财富也随之飙升,凭借着 3.5% 的英伟达股份,他的总资产来到了近 700 亿美元,跻身全球富豪榜前二十。

如今,受到资本热捧的英伟达俨然一副半导体一哥的形象,即使是排在它前面的微软和苹果,在人工智能的发展上也需要向它取取经,顺便买点 H100 来训练一下自己的大模型。

但是,坐拥 AI 市场的英伟达真的天下无敌了吗?它的对手在哪里?

在英伟达的最新财报中,它将自己的竞争对手一一列出,一共分为了四大类,分别是设计分立和集成 GPU、定制芯片和其他加速计算解决方案的供应商和许可商、拥有内部团队设计芯片的大型互联网服务公司、嵌入到汽车、自动机器和游戏设备中的 SoC 产品供应商、以及互连、交换和电缆解决方案供应商。

这其中既有大家熟悉的老面孔,也有近几年随着英伟达业务扩张而加进来的新面孔,大家不妨来看下其中的佼佼者,它们是如何让 2 万亿美元的公司在 AI 上产生危机感的。

英伟达的老对手

英伟达从来就不缺少挑战者。

从上世纪末开始到如今,图形处理器的作用愈来愈重要,而在该行业中的佼佼者、定义了 GPU 这一名称的英伟达,自然少不了与其他厂商展开竞争,早期的 3DFX,后来的 ATi,都给英伟达带来过不小的压力。

而随着图形市场大浪淘沙,这部分厂商的数量迅速缩减,英伟达逐步确立了自己在 GPU 行业的地位,在 2006 年 ATI 被收购之后,还能对英伟达霸主地位造成威胁的,首先就是两个大家熟悉的老朋友——AMD 与英特尔。

单论在 GPU 方面的技术积累,成立时间较长、并购企业较多的 AMD 和英特尔,显然是有自己一份底气在的,事实上,这两家也确实在英伟达显卡大卖的时候,与它展开了一轮 AI 竞赛,纷纷掏出了自己对标 H100 和 A100 的得意之作。

AMD 早在 2022 年 6 月,就推出 CPU+GPU 架构的 Instinct MI300,正式进军 AI 训练端。而在去年 6 月,又公布了 MI300X 与 MI300A 两款 AI 加速器, 其中 MI300X 采用了 8 XCD,4 个 IO die,8 个 HBM3 堆栈,高达 256MB 的 AMD Infinity Cache 和 3.5D 封装的设计,支持 FP8 和稀疏性等新数学格式,是一款全部面向 AI 和 HPC 工作负载的设计,而它的晶体管也达到了 1530 亿颗,成为了 AMD 迄今为止制造的最大芯片。

AMD 表示,MI300X 在人工智能推理工作负载中的性能比英伟达 H100 高出 1.6 倍,在训练工作中的性能与 H100 相当,从而为业界提供了亟需的高性能替代品,以取代英伟达的 GPU。此外,这些加速器的 HBM3 内存容量也是英伟达 GPU 的两倍多,达到惊人的 192 GB,使其 MI300X 平台能够支持每个系统两倍多的 LLM,并能运行比 H100 HGX 更大的模型。

而在去年 12 月的 “Advancing AI” 活动中,AMD 为旗舰 AI GPU 加速器 MI300X 专程开了一场发布会,同时推出了配套的 ROCm 6.0 开放软件平台,其指出与上一代软硬件组合相比,使用 MI300X 和 ROCm 6 跑 Llama 2 70B 文本生成,AI 推理速度提高了约 8 倍。

英特尔在 AI 上的步伐也从未停止过,它瞄准生成式 AI 市场的主要产品就是 Gaudi。为了进军深度学习市场,早在 2016 年 8 月,英特尔就花费 4 亿美元收购了 Nervana Systems,被英特尔收购后,Habana 一共发布了 2 款 AI 芯片,分别是 Gaudi 和 Gaudi 2。Gaudi 平台从一开始就为数据中心的深度学习训练和推理工作负载而构建的 AI 加速器。其中 Gaudi 2 于 2022 年推出,相比第一代,Gaudi 2 在性能和内存方面的提升,使其成为市场上能够横向扩展 AI 训练的一大解决方案。

英特尔还特意为受限中国市场推出了专为训练大语言模型而构建的最新 Gaudi 2 新产品——HL-225B 夹层卡。HL-225B 处理器符合美国工业与安全局发布的有关出口规定,Gaudi2 夹层卡符合 OCP OAM 1.1 规范。这样一来,客户便可从符合规范的多种产品中做出选择,灵活地进行系统设计。

值得一提的是,英特尔在去年年底还首次展示了用于深度学习和大规模生成人工智能模型的 Gaudi3 系列 AI 加速器,预计将于 2024 年上市。据爆料,英特尔 Gaudi 3 将采用 5nm 工艺,带宽是前代 Gaudi 2(7nm 工艺)的 1.5 倍,BF16 功率是其 4 倍,网络算力是其 2 倍。

2023 年底,生成式人工智能的世界里上演了一场芯片版的《黄金三镖客》,身披绿色、红色和蓝色披风的牛仔,屏住呼吸,把手放在了自己的枪套上,只待最后几秒的来临,宣布自己的人工智能解决方案。

随着老对手的不断追赶,即使是这两年顺风顺水的英伟达,也感受到了一点压力,华尔街日报最近的一篇文章揭露了部分厂商对英伟达的指控,他们称英伟达倾向于推迟向考虑采用竞争对手人工智能处理器的客户交付 GPU,这种情况让英伟达客户噤若寒蝉,有些客户甚至隐瞒和否认与竞争对手的互动。

英伟达的新对手

英伟达担忧的,也不只是两位老对手。

近日,英伟达在向美国证券交易委员会提交的文件中,首次将华为认定为人工智能芯片等多个类别的最大竞争对手,英伟达提到的其他竞争对手包括英特尔、AMD、博通和高通,此外还列出了许多重要的云计算公司,例如亚马逊和微软。

英伟达在文件中表示,华为在供应人工智能芯片方面存在竞争,例如图形处理单元(GPU)、中央处理单元(CPU)和网络芯片,其认为,华为还是一家云服务公司,能够设计自己的硬件和软件以改进人工智能计算。

值得一提的是,华为在去年 8 月正式发布了 “昇腾 910” AI 芯片及 “MindSpore” 全场景 AI 计算框架。华为公司轮值董事长徐直军在接受媒体采访时提到,昇腾不以独立芯片面向市场,而是以融合入板卡服务器以及云服务的方式推出,AI 芯片作为独立业务面向市场的情况不会发生也不会实现。

除了华为这样的中国厂商外,博通和高通也成为了英伟达所顾虑的对手之一。

博通一直被许多人所忽略,但它也在人工智能领域发掘到了自己的金矿。根据 2020 年摩根大通分析师哈兰·苏尔的报告,谷歌 TPU v1 至 v4 这几代均是由博通共同设计的,当时它已经开始生产采用 7nm 工艺的 TPU v4,并开始与谷歌合作设计采用 5nm 工艺的 TPU v5

苏尔表示,博通的专用集成电路(ASIC)业务 2020 全年收入为 7.5 亿美元,高于 2016 年的 5000 万美元,除了芯片设计之外,博通还为谷歌提供了关键的知识产权,并负责了制造、测试和封装新芯片等步骤,以供应谷歌的新数据中心,博通还与其他客户如 Facebook、微软和 AT&T 等公司合作设计 ASIC 芯片。

就收入而言,博通是全球第二大人工智能芯片公司,仅次于英伟达,其 ASIC 的销售额达数十亿美元,背后正是谷歌加大 TPU 部署的结果,光是一家谷歌的 TPU 就让博通的 ASIC 收入翻了两番还多,倘若其他厂商向博通抛来橄榄枝,那么此消彼长,英伟达 AI 显卡的订单就会减少,这也是它被列入英伟达名单的原因。

至于 “双通” 的另一位,也就是高通,大家可能以为它与英伟达的竞争体现在车载芯片市场中,但除了 8195 和 8295 这样的智能座舱芯片外,高通还从另一个领域向英伟达发起了进攻。

去年 11 月,高通发布了 Cloud AI 100 Ultra,其属于云 AI 推理加速卡,专为生成式 AI 和大型语言模型而设计。据高通介绍, Cloud AI 100 Ultra 是一个可编程的 AI 加速器,可以支持最新的 AI 技术和数据格式,其利用高通 AI 堆栈,可以使客户能够 “在任何地方训练并在 Cloud AI 100 Ultra 上进行推理”,从而支持模型的移植和优化。

事实上,高通早在 2020 年就推出了 Cloud AI 100 推理加速卡,2023 年 9 月,MLCommons 发布了 MLPerf Inference 3.1 基准测试结果,其中高通展示了其 Cloud AI 100 推理加速器的显着进步。结果显示, Cloud AI 100 的性能、能效和延迟显着提升,尤其是自然语言处理 (NLP) 和计算机视觉网络,其在基准测试超越了之前的记录。在多个类别中,Cloud AI 100 在峰值离线性能、能效和延迟减少方面都取得了进步。

高通新推出的 Cloud AI 100 Ultra 在原来的基础上进一步加强,明确针对生成式 AI 和大型语言模型的需求,而且高通也着重提到了运营成本这回事,其表示,在云和企业用例中,与竞争对手相比,高通 Cloud AI 100 Ultra 在生成式 AI(包括 LLMs、NLP 和计算机视觉工作负载)方面每 TCO 美元提供两到五倍的性能。

当然,高通与其他厂商不同的是,它能够将 Cloud AI 100 产品所代表的高性能、高能效推理与能够满足边缘市场更广泛需求的 IP 产品组合相结合,这在当前的技术提供商中很少见,也是它相较于英伟达的独特优势。

上面的三位还都是提供产品和解决方案的,更让英伟达感到头疼的,还是微软与亚马逊这样的云计算客户,身为客户,他们为英伟达带来滚滚不断的现金财富,但背地里,它们却暗自针对英伟达,避免它一家独大的情况,这种既是金主又是对手的身份,让英伟达左右为难。

微软在 2023 年 11 月的 Microsoft Ignite 大会上,推出了两款定制设计的芯片和集成系统:针对人工智能 (AI) 任务和生成式 AI 进行优化的 Microsoft Azure Maia AI 加速器,以及 Microsoft Azure Cobalt CPU——一款基于 Arm 的处理器,专为在 Microsoft 云上运行通用计算工作负载而设计。

微软方面表示,这些芯片是微软提供基础设施系统的最后一块拼图,其中包括从芯片选择、软件和服务器到机架和冷却系统的一切,这些系统经过自上而下的设计,可以根据内部和客户工作负载进行优化。

亚马逊从 2013 年推出首颗 Nitro1 芯片至今,AWS 是最先涉足自研芯片的云端厂商,已拥有网路芯片、伺服器芯片、人工智慧机器学习自研芯片 3 条产品线。AWS 自研 AI 芯片版图包括推理芯片 Inferentia 和训练芯片 Trainium。2023 年初,专为人工智慧打造的 Inferentia 2(Inf2)发布,将计算性能提高了三倍,加速器总内存提高了四分之一,可通过芯片间的直接超高速连接支持分布式推理,最多可支持 1750 亿个参数,这使其成为大规模模型推理的有力竞争者。

除了英伟达明确提到的这两位外,Meta、谷歌和特斯拉等巨头似乎也成了英伟达的威胁。

Meta 直到 2022 年,还主要使用 CPU 和专为加速 AI 算法而设计的订制芯片组合来运行其 AI 工作负载,但 CPU 的效率往往不如 GPU。后来 Meta 取消了于 2022 年大规模推出订制芯片的计划,转而订购了价值数十亿美元的英伟达 GPU。为扭转局面,Meta 已经在开发内部芯片,并于 5 月 19 日公布了 AI 训练与推理芯片项目。据介绍,该芯片的功耗仅为 25 瓦,占英伟达等市场领先供应商芯片功耗的一小部分,并使用了 RISC-V(第五代精简指令处理器)开源架构。

谷歌自研芯片 TPU 早在 2016 年就公诸于世,可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型。与微软和亚马逊相比,谷歌最突出的优势,就是从系统级的角度设计 TPU,单个芯片固然重要,但在现实世界中如何在系统中组合使用则更为重要。虽然英伟达也从系统角度思考问题,但他们的系统规模比谷歌更小,范围也更窄。而且谷歌还在 TPU 之间使用了定制的网络堆栈 ICI。与昂贵的以太网和 InfiniBand 部署相比,这种链路延迟低、性能高,类似于英伟达的 NVLink。

而特斯拉,则是从自己自动驾驶的需求出发,推出了两种自研芯片,分别为全自动驾驶(FSD)和 Dojo D1 芯片。FSD 芯片用于特斯拉汽车上的自动驾驶系统;Dojo D1 芯片则用于特斯拉超级计算机 Dojo 片,它是一种通用的 CPU,目的是为了加速特斯拉自动驾驶系统的训练和改进。

甚至于英伟达的最大客户之一,Open AI 也盘算起了自研的可能性,据报道,OpenAI 首席执行官山姆·阿尔特曼(Sam Altman)正在筹集资金建设半导体生产设施,生产用于人工智能应用的处理器 。他相信人工智能技术将在未来几年变得足够普遍以支持他们自己的半导体供应链。报道称,这家合资企业未来可能将与、和三星代工等公司竞争。

据悉,OpenAI 拟筹建的合资企业与总部位于阿布扎比的 G42 和软银集团等潜在投资者进行了讨论,旨在解决当前和预期的人工智能相关芯片供应短缺问题,讨论中提到,可能会筹集 80 亿至 100 亿美元购买一家成熟的代工厂或建立一个全新的晶圆厂来满足 OpenAI 及其潜在合作伙伴的需求。

与老对手相比,英伟达对这些新对手的忌惮更多,因为它们发动的竞争,不在它所熟悉的市场之上,需要考虑顾忌的因素更多,短时间内也没有合适的应对方法。

英伟达,向何处去

我们对比了英伟达 2014 至 2023 这 10 年财报中所提到的竞争对手,里面的变动在一定程度上体现了英伟达业务重心的迁移变化,例如当英伟达收购英国基带芯片厂商 Icera,有志于做手机 SoC 时,就曾在 2014 年,把高通、博通、联发科、海思、展讯等厂商列为对手,但在 2015 年时放弃手机市场时,就彻底撇除了这部分厂商。

同样的事情发生在 2020 年,英伟达首次把拥有内部团队设计芯片的大型互联网服务公司作为竞争对手,这也是英伟达进军服务器领域后,发现谷歌 TPU 所带来的风险与压力,随着人工智能风潮的席卷,愈来愈多的企业把自研作为备选,英伟达也顺势将阿里巴巴和百度这样的中国公司加入其中。

比较有意思的是,ARM 这样的图形技术许可方,曾一度成为英伟达的竞争对手,但在英伟达打算收购后,就把它删去了,即使是后续收购失败,英伟达也将它作为合作伙伴而非对手这或许意味着英伟达放弃了授权图形技术的想法,更侧重于提供整套解决方案的路线。

如今,对于英伟达来说,AI 无疑是重中之重,但只是迭代自己的 AI 显卡还不够,既然自己的对手能够花大量时间成本去开发去自研,那么近一年赚得盆满钵满,手握充裕现金流的英伟达,也可以撒钱。

根据 PitchBook 的数据,英伟达自 2018 年以来参与的五笔最大的风险投资交易都发生在 2023 年,在过去的几个月里,黄仁勋开始疯狂押宝初创 AI 企业:Inflection AI、Runway、Cohere……大量企业拿到了珍贵的 H100 和 A100 显卡,成为了英伟达 AI 帝国的一员。

对于英伟达来说,想要不被切断财路,最根本的办法,就是多建几条财路,把自己的 AI 显卡视作撒出去的种子,押宝各种有可能性的未来,从而吃到最多的 AI 红利。

英伟达和竞争对手的这场大戏,不妨在 2024 年继续看下去。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。