
"The most powerful computing chip" is here, MI300X is faster than H100, but how much faster? Will Microsoft be the winner?

“AMD 不需要击败英伟达,第二名也可以过得很好”。但 MI300X 比英伟达的 GPU H100 性能提升显著,浮点运算速度高 30%,内存带宽高 60%,内存容量是 H100 的两倍以上!
Meta、OpenAI 和微软在本周三举行的 AMD 投资者大会上,表示将使用 AMD 最新的人工智能芯片 Instinct MI300X。此举表明,科技界正在积极寻求昂贵的英伟达 GPU 的替代品。
MI300X 被业界寄予厚望,毕竟 “天下苦英伟达久矣”,后者的旗舰 GPU 不仅价格高昂,而且供货数量也相当有限。如果 MI300X 能够得到大规模采用,有望降低开发人工智能模型的成本,对英伟达形成竞争压力。
比英伟达的 GPU 快多少?
AMD 表示,MI300X 基于全新架构,性能有着显著的提升。它的最大特点是拥有 192GB 的尖端高性能内存,即 HBM3,这种内存传输数据的速度更快,可以容纳更大的人工智能模型。
苏姿丰直接将 MI300X 及其构建的系统与英伟达的(上代)旗舰 GPU H100 进行了比较。
就基础规格而言,MI300X 的浮点运算速度比 H100 高 30%,内存带宽比 H100 高 60%,内存容量更是 H100 的两倍以上。
当然,MI300X 对标的更多是英伟达最新的 GPU H200,虽然规格上同样领先,但 MI300X 对 H200 的优势就没那么大了,内存带宽仅比后者多出个位数,容量比后者大近 40%。
苏姿丰认为:
"这种性能可以直接转化为更好的用户体验,当你向模型提问时,你希望它能更快地回答,尤其是当回答变得越来越复杂时。"
苏姿丰:AMD 不需要击败英伟达 第二名也可以过得很好
AMD 面临的主要问题是,那些一直依赖英伟达的公司是否会投入时间和金钱来增加另一家 GPU 供应商。
苏姿丰也承认,这些公司确实需要 “付出努力” 来转向 AMD 芯片。
AMD 周三告诉投资者和合作伙伴,公司已经改进了对标英伟达 CUDA 的软件套件 ROCm。CUDA 套件一直是 AI 开发者目前青睐英伟达的主要原因之一。
价格也很重要。AMD 周三没有透露 MI300X 的定价,但肯定会比英伟达的旗舰芯片更便宜,后者的单价在 4 万美元左右。苏姿丰表示,AMD 的芯片必须比英伟达的购买和运营成本更低,才能说服客户购买。
AMD 还称,已经和一些最需要 GPU 的大公司签下了 MI300X 的订单。
Meta 计划把 MI300XGPU 用于人工智能推理任务,微软首席技术官 Kevin Scott 也表示,公司会把 MI300X 部署在其云计算服务 Azure 中,此外,甲骨文的云计算服务也会使用 MI300X。OpenAI 也会在一款叫做 Triton 的软件产品中使用 AMD GPU.
根据研究公司 Omidia 的最新报告,Meta、微软、甲骨文都是 2023 年英伟达 H100 GPU 的重要买家。
AMD 没有给出 MI300X 的销量预测,仅预计 2024 年数据中心 GPU 总收入约为 20 亿美元。而英伟达仅最近一个季度的数据中心收入就超过了 140 亿美元,不过算上了 GPU 之外的其他芯片。
展望未来,AMD 认为,人工智能 GPU 的市场规模将攀升至 4000 亿美元,比之前的预测翻了一番。由此可见,人们对高端人工智能芯片的期望有多高、垂涎有多深。
苏姿丰还对媒体坦然地说,AMD 不需要击败英伟达,也能在市场上取得好成绩。言下之意就是,第二名也可以活得很好。
她在谈到 AI 芯片市场时表示:
“我认为可以明确地说,英伟达现在肯定是市场的领导者,我们相信,到 2027 年,这个市场的规模可能会达到 4000 多亿美元。我们可以从中分得一杯羹。”
