Is the "price game" of AI chips emerging? Will Nvidia's monopoly face variables?

智通财经
2023.12.20 01:49
portai
I'm PortAI, I can summarize articles.

英伟达股价跌了,是 AI 芯片卖不动了?“客户最关心的是新品价格;英伟达被认为可能需要在 H200 等新品芯片价格的定价区间上更加灵活,尤其是某些特定产品性能降级的情况下。因此,一些客户可能倾向于暂时观望,等待他们能接受的市场价格。”

智通财经 APP 获悉,截至周二美股收盘,AI 芯片领导者英伟达 (NVDA.US) 股价下跌约 1%,在此之前股票研究以及市场情报提供商 Edgewater Research 表示,自今年年初以来,该芯片巨头的人工智能 GPU 芯片渠道需求展望首次出现 “喜忧参半” 的预期数据。在需求端,买卖双方 “价格博弈” 信号已经出现,尤其是一些买家选择观望,等待他们能接受的市场价格。

这家市场研究公司指出,2024 年数据中心 GPU 出货量的渠道预测数据基本保持不变,并且基于 COWOS 先进封装技术的芯片供应短缺仍然将持续一段时间,特别是来自台积电 (TSM.US) 的芯片供应量将持续紧张。

Edgewater Research 补充称,英伟达的客户们仍在试用 H200 和 L20 芯片,预计将在 2024 年上半年客户试用规模将增加。“客户最关心的是新品价格;(英伟达) 被认为可能需要在 H200 等新品芯片价格的定价区间上更加灵活,尤其是某些特定产品性能降级的情况下。因此,一些客户可能倾向于暂时观望,等待他们能接受的市场价格。” Edgewater Research 表示。

该公司表示,目前还不清楚为什么英伟达的人工智能 GPU 需求突然出现了 “好坏参半” 的数据预测点,不过人们猜测最有可能的原因是全新 H200 AI 芯片的正式推出 (于上个月宣布),以及最强大竞争对手之一 AMD 发布号称 “最强算力” 的 AI 芯片 Instinct MI300X,这一局面导致主要客户在重新考虑 GPU 采购计划时暂停购买,直至等到英伟达报出他们认为合理的市场价格。然而,该研究机构补充表示:“这也可能表明 2024 年中期的英伟达新产品潜在需求将因性能等优势而重新加速。”

AMD 并未透露 MI300X 的定价,但 AMD 首席执行官苏姿丰表示,AMD 的芯片必须比英伟达的芯片购买和运营成本更低,才能说服潜在大客户购买。

Edgewater Research 在研究报告中写道:“令人鼓舞的是,统计渠道对英伟达数据中心地位和 AI 芯片需求的长期评论仍然具有建设性,英伟达旗舰产品在数据中心的应用比例仍在不断扩大,在英伟达芯片加速驱动下,无论是基于人工智能还是非人工智能应用的潜力都非常大。”

该研究机构还对英伟达的竞争对手 AMD (AMD.US) 和英特尔 (INTC.US) 的新产品发表了较为积极的看法,并指出,预计到 2024 年,AMD 的人工智能部署将带来至少 10 亿美元的营收规模。英特尔旗下的各类芯片产品可能将受益于 PC 端需求持续复苏,因为该机构预计到 2024 年,个人电脑销量将同比增长 2% 至 5%。

展望未来,AI 芯片领域的竞争局势或将愈发激烈

英伟达在 2023 年堪称是全球股票市场最火热的投资标的,得益于去年 ChatGPT 横空出世引发的人工智能投资狂潮,在 AI 芯片领域处于毫无争议垄断地位的英伟达股价暴涨,该股在 2023 年的表现异常出色。今年以来,英伟达股价涨幅达到了惊人的 240%。这一成就不仅令该股轻松超过美股基准指数——标普 500 指数 (S&P 500),同时年内涨幅位列七大科技巨头之首。美股市场的七大科技巨头 (Magnificent Seven) 包括:苹果、微软、谷歌、特斯拉、英伟达、亚马逊以及 Meta Platforms。

全球 AI 芯片领导者英伟达在 AI 芯片领域份额接近 90%,AMD 则远远不及英伟达,然而在 AMD 发布号称 “最强算力” 的 AI 芯片 Instinct MI300X 之后,英伟达垄断地位毫无疑问将面临来自 AMD 的巨大威胁。“Advancing AI” 发布会上,AMD 将截至 2027 年的全球 AI 芯片市场规模预期,从此前预期的 1500 亿美元猛然上修至 4000 亿美元,而 2023 年 AI 市场规模预期仅仅为 300 亿美元左右。华尔街大行花旗预计明年 AI 芯片市场规模将在 750 亿美元左右,同时预计 AMD 能够占据 10% 左右的市场份额。

除了面临来自 AMD 的竞争压力,英伟达还面临各大云服务巨头自研 AI 芯片带来的竞争压力。比如谷歌近期宣布推出新版本的 TPU 芯片 TPU v5p,旨在大幅缩减训练大语言模型时间投入,v5p 是今年早些时候全面推出的 Cloud TPU v5e 的更新版本。全球第一大公有云巨头——亚马逊旗下的 AWS 近期宣布推出为生成式 AI 和机器学习训练而设计全新自研 AI 芯片 AWS Trainium2,性能比上一代芯片提高到 4 倍,可提供 65ExaFlops 超算性能。微软近期宣布推出第一款定制的自研 CPU 系列 Azure Cobalt 和 AI 加速芯片 Azure Maia,后者是微软首款人工智能芯片,主要针对大语言模型训练,预计将于明年初开始在微软 Azure 数据中心推出。

据了解,有着 “OpenAI 劲敌” 之称的人工智能初创公司 Anthropic 已经成为首批使用谷歌 TPU 芯片的公司之一,其他在人工智能领域备受瞩目的初创公司,如 Hugging Face 和 AssemblyAI 也在大规模使用谷歌 TPU 芯片。据媒体报道,Anthropic 还计划用 Trainium2 芯片构建新的 AI 大模型。

从技术层面上来看,与英伟达 A100/H100 等通用型 GPU 相比,谷歌 TPU 设计初衷正是专注于深度学习领域,尤其是全面加速神经网络训练和推理效率。英伟达的 A100 和 H100,它们属于广义上的通用型 GPU,而不仅仅局限于深度学习和人工智能领域。这些 GPU 具有通用计算能力,适用于多种计算工作负载,包括但不限于:高性能计算 (HPC)、深度学习以及大规模数据分析。

与英伟达通用型 GPU 相比,谷歌 TPU 采用低精度计算,在几乎不影响深度学习处理效果的前提下大幅降低了功耗、加快运算速度,尤其对于中型 LLM 设计者来说完全够用,因此他们可能不需要依赖高性能的英伟达 A100/H100。同时,TPU 使用了脉动阵列等设计来优化矩阵乘法与卷积运算。谷歌 TPU 追求专注于 AI 训练和推理,因此精简化部分设计架构,这也是 TPU 功耗、内存带宽和 FLOPS 都明显低于英伟达 H100 的部分原因。