AI 化身 “吞电巨兽” 内存计算或成省电新招
内存计算可能成为提高人工智能(AI)能源效率的新技术,以应对 AI 高耗能所引发的经济和环境问题。AI 行业的电量消耗预计将在未来几年大幅增加,而 AI 所需的大量数据传输过程需要消耗大量电力。因此,研究人员一直致力于开发能够在存储数据的地方处理数据的芯片,即内存计算。虽然内存计算目前仍面临技术挑战,但这一技术的应用可能会带来巨大回报。
智通财经 APP 获悉,随着人工智能 (AI) 的繁荣,作为 AI 基础设施核心组成部分的电力资源正在引起越来越多的关注。毫无疑问的是,AI 是一个高耗能的领域,数据中心、超级算力中心都堪称 “吞电巨兽”。有专家推算认为,到 2027 年,AI 行业每年的电量消耗可能在 85 到 134 太瓦时之间,这几乎相当于荷兰一个国家的年度电力需求。国际能源署 (IEA) 此前的一份报告也指出,由于人工智能和加密货币的需求,数据中心的用电量将在不久的将来大幅增加。
不少行业大佬也都 AI 可能面临的能源危机发出警告。今年 1 月,OpenAI 首席执行官萨姆·奥特曼承认,AI 行业正面临能源危机。他警告称,未来 AI 需要能源突破,因为 AI 消耗的电力将远远超出人们的预期。特斯拉 (TSLA.US) 首席执行官马斯克在 2 月底出席一场会议时也表示,芯片短缺的情况可能已经过去,但 AI 和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。英伟达 (NVDA.US) 首席执行官黄仁勋更是直言:“AI 的尽头是光伏和储能!如果只考虑计算,我们需要烧掉 14 个地球的能源,超级 AI 将成为电力需求的无底洞。”
一个关键原因在于,AI 需要大量的数据,而数据在存储芯片和处理器之间来回传输的这一过程需要消耗大量电力。因此,至少十年来,研究人员一直试图通过制造可以在存储数据的地方处理数据的芯片来节省电力。这个过程通常被称为 “内存计算”。
内存计算目前仍面临着技术上的挑战,现在刚刚走出研究阶段。而随着 AI 的高耗能引发了人们对其经济可行性和环境影响的严重质疑,能够提高 AI 能源效率的技术可能会带来巨大回报。这使得内存计算成为越来越令人兴奋的话题。台积电 (TSM.US)、英特尔 (INTC.US) 和三星电子等主要芯片制造商都在研究内存计算。OpenAI 首席执行官奥特曼等个人、微软 (MSFT.US) 等公司以及不少政府附属实体都投资了从事这项技术的初创公司。
这项技术是否会成为 AI 未来的重要组成部分还无法确定。通常,内存计算芯片对温度变化等环境因素很敏感,而这可能会导致计算错误。初创公司们正在研究各种方法以改善这一点。然而,更换采用新技术的芯片往往都很昂贵,而且客户通常会犹豫不决,除非他们对重大改进有信心。初创公司也必须说服客户,新技术带来的好处是值得冒险的。
目前,内存计算初创公司还没有着手 AI 计算中最困难的部分,即训练新模型,这一过程主要由英伟达等公司设计的 AI 芯片来处理。内存计算初创公司似乎不打算直接与英伟达展开竞争,它们的目标是将业务建立在推理上,即利用现有模型接收提示并输出内容。推理不像训练那么复杂,但其规模也很庞大。这意味着专门为提高推理效率而设计的芯片可能会有一个前景良好的市场。
内存计算公司仍在摸索其产品的最佳用途。总部位于荷兰的内存计算初创公司 Axelera 正瞄准汽车和数据中心的计算机视觉应用。总部位于德克萨斯州奥斯汀的 Mythic 的支持者认为,内存计算在短期内是 AI 安全摄像头等应用的理想选择,但最终希望它们能用于训练 AI 模型。
行业智库 Semiconductor Research Corp.的首席科学家 Victor Zhirnov 表示,AI 能源使用的巨大规模让每个人都迫切需要研究如何提高这项技术的效率。他直言:“AI 迫切需要节能的解决方案,否则它会很快自杀的。”