AI 时代,没有人能摆脱英伟达!
谷歌、亚马逊、微软们都在开发自研芯片,试图在硬件层面降低了对英伟达的依赖,但在软件层面,他们又不得不与英伟达保持合作。
作者|杨逍
编辑|苏建勋
微软推出自研芯片,人工智能市场拉开新序幕。
11 月 16 日,微软在其科技大会上发布了两款自研芯片——用于云端训练和推理的 AI 芯片 Azure Maia 100,和 CPU(中央处理器)Azure Cobalt 100,分别在 AI 芯片和 CPU 芯片上正面对刚英伟达和英特尔。
2023 年 3 月 ChatGPT 火热后,英伟达的 AI 芯片 A100、H100 便一卡难求,英伟达占据了人工智能芯片市场至少 90% 的份额。
AI 芯片是 AI 时代石油一般的存在。大模型公司想更快推出模型和 AI 应用,就必须大量购入英伟达的芯片。而英伟达的产能有限,按照上一年计划制定的供给,远不能满足蓬勃的市场需求,抢不到芯片的云厂商、互联网巨头不得不高价抢购。
大模型公司尚未赚到钱,但英伟达先赚得盆满钵满,哪怕是大模型头部企业 OpenAI,每年也不得不花费巨额资金在 AI 算力上。
自研成为企业共同的希冀,在微软之前,谷歌和亚马逊都已用上了自研的芯片,而后来者 Meta、OpenAI 等也走在自研芯片降低成本的路上。
但从英伟达推出 DGX Cloud 云服务和基础模型工具等看来,这家芯片巨头正试图构建一个更庞大的商业版图——即使科技巨头们都试图在硬件层面降低了对英伟达的依赖,但在软件层面,他们又不得不与英伟达保持合作。
云巨头集体向 “自研芯片” 看齐
2008 年,淘宝的数据急速增长,存储数据需要花费的成本越来越稿,这也是后来阿里决定进军云计算产业的重要原因。
如今,同样的困境摆在微软、谷歌等一众云巨头公司面前,只是瓶颈从数据中心变成了建数据中心的芯片。这种对高性能 AI 芯片的渴望和需求,随着大模型及生成式 AI 的发展将越来越强。
微软从 2019 年便开始自研 AI 芯片,在此次技术大会上,两款自研人工智能芯片 Maia 100 和云计算处理器 Cobalt 100 也终于出炉。
微软两款新芯片
Cobalt 100 有 128 个核心,是 CPU 芯片,目前已在微软的部分业务中得到了应用,并将于明年上市。Maia 100 则是 AI 芯片,它采用了 5nm 制程,主要用来运行大语言模型,帮助 AI 系统更快地处理大量数据。
虽然 AI 为微软带来了巨大的未来业务预期,但由于 AI 仍处于发展起步阶段。有媒体曾报道,在 2023 年年初,微软 Copilot 平均每位用户每月带来的亏损超过 20 美元,有的用户甚至造成了最高达到 80 美元的亏损。
除了是英伟达数据中心市场的大客户,微软还是目前最火热的人工智能独角兽 OpenAI 的最大股东。为了帮助 OpenAI 训练 ChatGPT,微软曾花费数亿美元向英伟达购入芯片。
不止微软,包括谷歌和亚马逊在内的云巨头们都希望降低芯片送水人英伟达单一供应商的牵制。
谷歌在 2016 年便推出第一代自研 AI 芯片 TPU,2021 年 5 月又推出了第四代 TPU v4,他们目前已将 4000 个 TPU v4 串联在一起,构建了一台超级计算机,并在自己的云服务中部署了数百台 TPU v4 超级计算机。
亚马逊也推出了四个系列的自研芯片——网络芯片 Nitro 系列,服务器芯片 Graviton 系列,AI 推理芯片 Inferentia 系列、AI 训练芯片 Trainium,后两款芯片对应的是 GPU 市场。
定制化的 AI 芯片,可以让企业更好地将芯片硬件的性能和效率发挥出来,也可以基于硬件更好地去设计软件,提高芯片性能的实际利用率。
比起 AMD、英特尔,微软、谷歌等公司自研芯片的难度会小很多,他们无需生产通用芯片,更容易绕开英伟达在 Cuda 上的垄断。一位行业资深人士告诉 36 氪:“Cuda 上写好了非常多的软件,但一家公司可能只需要用到其中的不到 10% 甚至 5% 的软件,当企业有足够的人、能算得过来帐,完全可以将软件重写一遍。”
不过,微软推出自己的芯片,并不意味着要抛弃英伟达或 AMD。微软可以在某些领域采用自研芯片,来降低总体成本,增加与英伟达的议价权。
未来,微软仍会继续采购英伟达的芯片,只不过,2024 年会开始采用 AMD MI300 芯片,培养第二供应商,以降低对英伟达的依赖。
绕不开的英伟达
科技巨头们试图降低对英伟达的依赖,对此英伟达 CEO 黄仁勋心知肚明。
在内部他经常强调,“公司距离倒闭只有 30 天”。强烈的危机意识让他对商业竞争保持着极强的敏锐度。
就在亚马逊、谷歌、微软等一众公司想要在硬件层面上减少与英伟达的羁绊时,英伟达开始向更上层的软件和算力进军。
在今年 3 月 21 日的 GTC 大会上,英伟达发布了 DGX Cloud,这是一款能提供英伟达最先进算力的云服务产品,它背后隐藏着黄仁勋巨大的野心——将硬件卖给云合作伙伴,再租用算力来运行 DGX Cloud,从而提供完整的云服务。不知不觉间,英伟达将自己和云厂商们放到了同一牌桌。
不过,黄仁勋也表示,这是一场双赢的举措,他曾公开表示恰当的云服务组合比例应该是 10% 英伟达 DGX 加上 90% 的公有云。
云巨头想摆脱英伟达,英伟达便扶持起新的合作伙伴。今年,英伟达已投资了 CoreWeave、Lambda Labs 两家美国的中小云服务商。
2022 年 11 月,CoreWeave 就和谷歌云、微软云一样,是首批能提供采用英伟达 H100 超级计算机云的供应商。与大型通用公共云相比,CoreWeave 的定价可以帮用户节省 80% 的费用。在商业世界,同样都是英伟达的芯片,客户为什么不选择更便宜的算力?
除了参与云算力的竞争,英伟达还将触角伸到了 AI 软件上,站在基座大模型公司的站位上,笼络更多的 AI 公司,让他们基于英伟达的工具和模型研发模型。
英伟达推出了用于创建和自定义生成 AI 模型的 AI Workbench,为用户提供了一些 AI 基础模型,还提供了英伟达 NeMo 框架和工具,只有一个目的——让不具备大模型研究能力的公司,直接用英伟达提供的大模型,生成自己的大模型产品。
可以明显看到,英伟达在投资、收购上的动作激进了很多。2023 年以来,英伟达便投资收购了 10 多家人工智能相关企业,如 2 月收购 AI 优化平台公司 OmniML,3 月收购人工智能模型开发领域的 Adept,6-7 月则先后投资了语言模型开发企业 Cohere、Inflection AI 与来自德国的 Aleph Alpha 等。
这家芯片巨头正加强自己与大模型公司和 AI 应用公司的联系。从一家只卖硬件的公司,变成为 AI 产业提供 “一条龙服务” 的计算平台公司。
正如,在这场微软推出自研 AI 芯片的高光时刻大会上,英伟达老黄仍然到场,从硬件合作伙伴化身软件合作伙伴,宣布将基于微软云提供自定义生成式服务 AI foundry。
在这个 AI 时代里,没有人能摆脱英伟达。