
NVIDIA's AI chip rival is here! AMD launches MI300X, capable of running models with up to 80 billion parameters.

MI300X 的 HBM 密度高达英伟达 AI 芯片 H100 的 2.4 倍,HBM 带宽高达 H100 的 1.6 倍,可以运行的模型比 H100 的更大。AMD 发布的其他新品已吸引硅谷巨头:亚马逊云运用四代 EPYC 处理器打造实例;微软 Azure 推出搭载 Genoa-X CPU 的新实例;Meta 计划使用 AMD 的新云芯片 Bergamo。
凭借发布的新品,AMD 正式向英伟达的 AI 芯片王者地位发起挑战。
美东时间 6 月 13 日周二,AMD 举行了新品发布会,其中最重磅的新品当属性用于训练大模型的 ADM 最先进 GPU Instinct MI300。
AMD CEO 苏姿丰介绍,生成式 AI 和大语言模型(LLM)需要电脑的算力和内存大幅提高。她预计,今年,数据中心 AI 加速器的市场将达到 300 亿美元左右,到 2027 年将超过 1500 亿美元,复合年增长率超过 50%。
苏姿丰演示介绍,AMD 的 Instinct MI300A 号称全球首款针对 AI 和高性能计算(HPC)的加速处理器(APU)加速器。在 13 个小芯片中遍布 1460 亿个晶体管。
它采用 CDNA 3 GPU 架构和 24 个 Zen 4 CPU 内核,配置 128GB 的 HBM3 内存。相比前代 MI250,MI300 的性能提高八倍,效率提高五倍。AMD 在发布会稍早介绍,新的 Zen 4c 内核比标准的 Zen 4 内核密度更高,比标准 Zen 4 的内核小 35%,同时保持 100% 的软件兼容性。

AMD 推出一款 GPU 专用的 MI300,即 MI300X,该芯片是针对 LLM 的优化版,拥有 192GB 的 HBM3 内存、5.2TB/秒的带宽和 896GB/秒的 Infinity Fabric 带宽。AMD 将 1530 亿个晶体管集成在共 12 个 5 纳米的小芯片中。
AMD 称,MI300X 提供的 HBM 密度最高是英伟达 AI 芯片 H100 的 2.4 倍,其 HBM 带宽最高是 H100 的 1.6 倍。这意味着,AMD 的芯片可以运行比英伟达芯片更大的模型。

Lisa Su 介绍,MI300X 可以支持 400 亿个参数的 Hugging Face AI 模型运行,并演示了让这个 LLM 写一首关于旧金山的诗。这是全球首次在单个 GPU 上运行这么大的模型。单个 MI300X 可以运行一个参数多达 800 亿的模型。

LLM 需要的 GPU 更少,给开发者带来的直接好处就是,可以节约成本。

AMD 还发布了 AMD Instinct 平台,它拥有八个 MI300X,采用行业标准 OCP 设计,提供总计 1.5TB 的 HBM3 内存。
苏姿丰称,适用于 CPU 和 GPU 的版本 MI300A 现在就已出样,MI300X 和八个 GPU 的 Instinct 平台将在今年第三季度出样,第四季度正式推出。

亚马逊、微软、Meta 已经或将要运用 AMD 新品
除了 AI 芯片,AMD 此次发布会还介绍了第四代 EPYC(霄龙)处理器,特别是在全球可用的云实例方面的进展。
AMD 第四代 EPYC(霄龙)在云工作负载的性能是英特尔竞品处理器的 1.8 倍,在企业工作负载中的处理速度是英特尔竞品的 1.9 倍。
AMD 称,第四代 EPYC(霄龙)启用新的 Zen 4c 内核,比英特尔 Xeon 8490H 的效率高 1.9 倍。由于绝大多数 AI 在 CPU 上运行,AMD 在 CPU AI 领域具有绝对的领先优势。

亚马逊周二宣布,在用 AWS Nitro 和第四代 EPYC 处理器打造新的实例。亚马逊云的 EC2 M7a 实例现已提供预览版,性能比 M6a 实例高 50%。

AMD 也将在内部工作中运用 EC2 M7a 实例,包括芯片设计的 EDA 软件。AMD 还宣布,今年 7 月,甲骨文将推出 Genoa E5 实例。
AMD 发布的 EPYC Bergamo 处理器是业界首款 x86 原生 CPU,有 128 个内核,每个插槽 256 个线程。这意味着一个普通的 2U 4 节点平台将有 2048 个线程。
Bergamo 比前代 Milan 的性能高 2.5 倍,现在就可以向 AMD 的云客户发货。
Meta 的公司代表介绍,Meta 在基础设施中使用 EPYC 处理器。Meta 也对基于 AMD 的处理器设计开源。Meta 方面称,计划为其基础设施使用云处理器 Bergamo,还要将 Bergamo 用于其存储平台。
AMD 同时推出本周二上市的 CPU Genoa-X。它将增加超过 1GB 的 96 核 L3 缓存。它共有四个 SKU,16 到 96 个内核。因为 SP5 插槽兼容,所以它可以与现有的 EPYC 平台一起使用。
微软的公司代表和 AMD 一道展示了微软云 Azure HPC 的性能,在 EPYC 处理器的帮助下,Azure 四年内的性能提升四倍。
Azure 宣布,搭载 Genoa-X 的 HBv4 和 HX 系列实例、以及新的 HBv3 实例全面上市。Azure 还称,性能最高可较市面基准提升 5.7 倍。
AMD 此前通过收购 Pensando 获得 DPU 技术。此次 AMD 称,其 P4 DPU 架构是世界上最智能的 DPU,它能减少数据中心的网络开销,并提高了服务器的可管理性。AMD 的 Pensando SmartNICs 是这种新数据中心架构不可或缺的组成部分。
AMD 还提到有自己的 AI 芯片软件,名为 ROCm。AMD 总裁 Victor Peng 称,在构建强大的软件堆栈方面,AMD 取得了真正的巨大进步,ROCm 软件栈可与模型、库、框架和工具的开放生态系统配合使用。
