AI has really arrived, can the economy withstand it? — A heated debate among "big short", "AI giants" and "top tech influencers"

华尔街见闻
2026.01.11 10:05
portai
I'm PortAI, I can summarize articles.

近日,三位重量级人物就 AI 革命与全球经济的关系展开激辩。Michael Burry、Jack Clark 和 Dwarkesh Patel 讨论了 AI 投资的未来及其对经济的影响。重点包括:AI 的真正爆发源于大规模预训练模型,ChatGPT 引发基础设施投资的异常模式,以及 AI 领域竞争的快速变化,领先者地位不再稳固。

近日,三位来自不同领域的重量级人物坐到了一张桌前:曾提前预见 2008 年金融危机的逆行者 Michael Burry,手握前沿模型的 Anthropic 联合创始人 Jack Clark,以及采访过硅谷所有大佬的主持人 Dwarkesh Patel。

他们把问题抛得直白又刺耳:AI 革命正滚滚而来,全球经济能否稳稳穿越这场剧烈变轨?这波 AI 投资究竟是兑现未来的必经之路,还是一场在我们眼前上演的历史级资本错配?

要点总结:

  • 2017–2025 的 “认知纠偏”:AI 真正爆发的是预训练规模化,而非从零练 agent。过去行业押注 “白板智能体”,以为靠环境刷任务就能逼出通用智能,结果只得到了在特定任务上 “分布内超人” 的 AI。当真正改变世界的,是 Transformer 和 Scaling Laws 带来的大规模预训练路径。今天的 agent 回归,是因为背后站着庞大的预训练模型。行业共识变成:当前看到的是能力 “地板”,不是 “天花板”。
  • 聊天机器人触发万亿级基础设施竞赛:投资逻辑完全反常。ChatGPT 最初看似只是写作、搜索、作业工具,却意外引爆全球万亿美元级硬件和基础设施投入。应用层收入尚未兑现,资本开支却已全面爆炸,传统软件公司被迫转型为资本密集型硬件企业。这种 “先布局基础设施再等需求” 的模式,在投资史上极为罕见。
  • “谁在赢” 无法简单回答:领先优势在 AI 领域并不耐用。AI 行业不像 “赢家通吃” 的平台经济,而更像 “高竞争领域”:领先者不断变化,Google、OpenAI、Anthropic 等都难维持长期优势。人才流动、生态扩散、逆向工程让壁垒迅速被削弱。当前格局更像 “前三轮流站台”,领先随时可能反转。
  • AI 是否提升生产力?关键不是工具强不强,而是缺乏真实可量化指标。现有数据互相冲突:METR 研究认为使用 AI 编码工具效率下降,而 Anthropic 调研用户却自报效率提升 50%。双方都承认:缺乏精细化 “过程仪表盘” 导致真实 ROI 不清晰。自我感觉的 “爽” 不代表真正提效,行业迫切需要可靠的生产力量化体系。
  • 为什么 AI 能力惊人,却没引发白领岗位大规模替代?理论上看,当前模型远超 2017 年预期,但落地时错误率、自我纠错弱、责任链复杂,使其难以无缝接入真实工作流。只有像软件开发这种 “天然闭环” 场景才能快速用起来;更多行业需要构建验证与自动化闭环,才能释放真正的生产力潜力。
  • Burry 的核心担忧:不是 AI 有没有用,而是资本回报率是否撑得住。Burry 关注 ROIC、折旧周期、搁浅资产等财务结构性风险。数据中心与芯片更新极快,许多资产不应按照传统长期折旧逻辑处理,否则利润虚高。若终端 AI 收入增速远低于基础设施投入,可能出现庞大 “在建工程” 滞留,甚至引发私募信贷风险链条。
  • 2026 年让他们 “改观” 的指标:把观点变成可验证的赌局。三位嘉宾都提出自己愿意用来 “被打脸” 的指标:AI 应用收入是否能突破 5000 亿美元、前沿实验室收入是否突破千亿美元、芯片使用寿命是否延长、持续学习是否被攻克、规模化是否遇到瓶颈等。未来一年行业健康与否,将在 “收入、能力、效率、资本回报” 四个维度上见分晓。
  • 共识:AI 革命的最终瓶颈不是算法,而是能源。无论技术路线如何演进,算力需求持续攀升,电力供应成为绝对硬约束。小型核电、独立电网、能源基础设施将决定 AI 能否进入广泛实体经济。真正的限制不是模型,而是 “电从哪里来”。AI 革命可能写在电网里,而不是写在代码里。
  • 如何判断 AI 热潮有没有跑偏:看五个关键变量。这场辩论的真正价值,是给出了判断 AI 是否走向健康发展的 “硬指标”。技术会继续进步,但不代表商业闭环已成;生产力提升需要可靠数据,而非自我感觉;资本周期的折旧与期限错配风险会逐步显形;就业冲击不明显,因真实工作流远比 demo 复杂;能源与基础设施才是最终上限。要判断 AI 是否偏航,就看能力、效率、资本回报、产业闭环与能源供给这五条线。

以下为访谈原文:

AI 的故事

主持人 Patrick McKenzie: 你们被聘为过去几年的历史学家。请简明扼要地叙述自《Attention Is All You Need》论文发表以来,人类都构建了什么。2025 年的哪些情况会让 2017 年的观众感到惊讶?哪些博学之士的预言落空了?请站在你所属的领域(研究、政策或市场)讲述这个故事。

Jack Clark: 回到 2017 年,大多数人都在打赌,通往真正通用系统的路径,在于通过一套难度递增的任务课程从零开始训练智能体,并以此创建一个通用的能力系统。这体现在当时所有主要实验室(如 DeepMind 和 OpenAI)的研究项目中,他们试图在《星际争霸》、《Dota 2》和 AlphaGo 等游戏中训练出超越人类的玩家。我将其视为一种 “白板”(tabula rasa)式的豪赌——从一个空白的智能体开始,在某些环境中反复锤炼,直到它变聪明。

当然,正如我们现在所知,这并没有真正导向通用智能——但它确实在受训的任务分布内产生了超人水平的智能体。

就在那时,人们开始尝试另一种方法:在数据集上进行大规模训练,并试图构建能够预测这些分布并从中生成的模型。结果证明这种方法效果极佳,并受到两大核心因素的加速:

  1. 来自《Attention Is All You Need》的 Transformer 架构,它让这种大规模预训练变得极其高效;
  2. 大致同步发展的 “缩放法则”(Scaling Laws),或者说一种核心洞见:你可以模拟出预训练模型的能力与你投入的基础资源(数据、算力)之间的关系。

通过结合 Transformer 和缩放法则的洞见,少数人准确预判到:通过大规模扩展数据和算力,可以获得通用系统。

现在,有趣的是,事情又回到了原点:人们又开始构建智能体了,但这一次,它们被赋予了来自预训练模型的所有洞见。DeepMind 的 SIMA 2 论文就是一个极好的例子,他们制作了一个用于探索 3D 环境的通用智能体,它正是寄宿在底层的预训练 Gemini 模型之上。另一个例子是 Claude Code,这是一个编码智能体,其底层能力来源于一个庞大的预训练模型。

Patrick: 由于大语言模型(LLM)具有可编程性且随处可见(包括虽然比 2017 年强但比现在顶尖水平略逊的开源版),我们现在已经到了这样一个阶段:未来任何关于 AI 能力(或其他有趣事物)的开发,都不再需要建立在比我们目前拥有的更差的认知底座之上。这种 “你今天看到的是地板而非天花板” 的观点,我认为是业内人士理解最透彻、而决策者和外界误解最深的事情之一。

未来的每一个《星际争霸》AI 肯定都已经读过中文原版的《孙子兵法》,除非它的设计者评估认为这会削弱它防御虫族快攻的能力。

Jack: 是的,我们在 Anthropic 经常对政策制定者说:“这是它有史以来最烂的时候!” 但要让他们明白这句话背后蕴含的重要性真的很难。另一个直觉上难以理解的是能力提升的速度——目前一个典型的例子是,很多人在 Claude Code 中试用 Opus 4.5,然后会说类似 “天哪,这东西比以前强太多了” 的话。如果你对 LLM 的印象还停留在去年 11 月,那么你对前沿技术的判断已经严重失准了。

Michael Burry: 在我看来,在 2017 年,AI 并不等于 LLM。AI 指的是通用人工智能(AGI)。我认为当时的人们并不觉得 LLM 就是 AI。我是读着科幻小说长大的,书里预言了很多东西,但没有一本将 “AI” 想象成某种搜索密集型的聊天机器人。

至于《Attention Is All You Need》及其引入的 Transformer 模型,那些都是使用 Tensor 的 Google 工程师搞出来的。在 2010 年代中期,AI 并不是一个陌生的概念。神经网络、机器学习初创公司随处可见,会议中也经常提到 AI。Google 当时已经拥有了大语言模型,但那是内部使用的。对我来说,最大的惊讶之一是 Google 竟然没有在整个过程中保持领先,考虑到它在搜索和 Android 领域的统治力,无论是芯片还是软件。

另一个惊讶点是,我原以为专用集成电路(ASIC)会更早被采用,小语言模型(SLM)也会更早普及。英伟达(Nvidia)在推理领域能持续占据统治地位这么久,真是令人震惊。

而最令我惊讶的是,ChatGPT 竟然引发了这场投资狂潮。ChatGPT 的用例从一开始就非常有限——搜索、学生作弊和编程。现在已经有了更好的编程 LLM。但竟然是一个聊天机器人引发了数万亿美元的支出。

说到这些支出,我认为 Dwarkesh 采访 Satya Nadella 时最精彩的一刻,是对方承认现在所有的大型软件公司本质上都是硬件公司,属于资本密集型。我不确定跟踪这些公司的分析师是否真的知道什么是 “维护性资本支出”。

Dwarkesh Patel: 观点很棒。令人惊讶的是,到目前为止,AI 领域的领先优势是多么地不持久。当然,2017 年 Google 遥遥领先。几年前,OpenAI 似乎也领先一大截。但似乎存在某种力量(可能是人才挖掘、传闻流传或逆向工程),中和了任何单一实验室可能拥有的压倒性优势。相反,三大巨头每隔几个月就在领奖台上轮换位置。我很好奇 “递归超级智能” 是否真的能改变这种局面,还是说我们应该习惯这种长期的强力竞争。

Jack: 关于递归,所有前沿实验室都在利用 AI 工具加速自家开发者的进度,但这并不是一蹴而就的。它似乎具有 “木桶效应”——例如,如果你现在能产出 10 倍的代码,但你的代码审查工具只改进了 2 倍,那么你并不会看到巨大的整体提速。一个重大的悬而未决的问题是:是否可能完全闭合这个循环?如果可以,你可能会看到某种复利式的研发优势。

AI 工具真的能提高生产力吗?

Dwarkesh: “百万美元级别” 的核心问题是:哪种衡量标准能更真实地反映实验室研究员和工程师获得的提速?是 METR 的生产力研究(该研究显示,开发者在熟悉的库中工作时,使用编码工具反而使合并 PR 的效率下降了约 20%)?还是自成体系的编码任务的人力等效时间跨度(目前已达到数小时级,且每四到七个月翻一番)?我没有直接经验,但我猜更接近前者,因为目前缺乏良好的反馈验证闭环,且评判标准非常宽泛(可维护性、品味等)。

Jack: 同意,这是一个至关重要的问题——而且数据冲突且稀少。例如,我们对 Anthropic 的开发者进行了调查,在 60% 使用 Claude 的受访者中,自述生产力提升了 50%。但像 METR 这样的研究似乎又与之矛盾。我们需要更好的数据,特别是针对 AI 实验室内外开发者的工具化监测,看看究竟发生了什么。放大来看,编码工具被如此大规模且前所未有地采用,这确实表明人们在主观上获得了巨大收益——如果越来越多的开发者热衷于让自己效率变低,这太不符合直觉了。

Dwarkesh: 别怪我钻牛角尖,但 METR 研究恰恰预言了这一点:自述生产力远高于、甚至可能与真实生产力方向相反。

Jack: 是的,同意。在不透露太多的情况下,我们正在专门考虑如何进行监测并弄清这里的 “真相”,因为人们的自述可能最终与现实大相径庭。希望我们在 2026 年能产出一些相关的研究成果!

哪家公司正在胜出?

Michael: 你们认为领奖台会继续轮换吗?据我所听到的,Google 在 AWS 和微软的开发者中正赢得青睐。而且看起来,该公司的 “搜索惯性” 已经被肃清了。

Dwarkesh: 有趣。在我看来,竞争比以往任何时候都更激烈。推特上对 Opus 4.5 和 Gemini 3.5 Pro 的评价都很棒。我无法判断哪家公司会赢,但这绝对还没尘埃落定。

Jack: 我也觉得比以往任何时候都更具竞争性!

Dwarkesh: 好奇大家的看法:Anthropic、OpenAI 或 Google 能承受多少次失败的训练运行或 “哑火” 的模型?考虑到它们不断需要靠收入和所谓的 “氛围”(vibes)来融资(顺便问一句:融资具体是为了什么?)。

Michael: Google 搜索的秘诀一直在于它的廉价,因此那些无法变现的信息搜索(占 80% 或更多)不会演变成公司的巨额亏损。我认为这是当今生成式 AI 和 LLM 的根本问题——它们太贵了。很难理解其利润模式是什么,或者任何一个模型的竞争优势会是什么——是能收更高的费,还是运行成本更低?

也许 Google 最终会成为运行成本最低的那一个,并赢得这场最终会变成大宗商品化经济的战争。

Dwarkesh: 很好的观点。特别是如果你认为过去一年的许多/大部分进展都是推理缩放(inference scaling)的结果,而这需要指数级增长的可变成本来维持。

最终,事物的价格上限是由其替代成本决定的。因此,只有在进度持续飞快、且如 Jack 所说最终实现自我复利的情况下,基础模型公司才能维持高利润率(它们目前似乎确实如此)。

为什么 AI 还没偷走我们所有的工作?

Dwarkesh: 自动化工作和模拟人类行为所涉及的复杂程度令人惊讶。我们已经跨过了这么多 AGI 的常识性定义——图灵测试现在甚至都不值一提了;我们已经有了能够推理并解决复杂的、开放式编码和数学问题的模型。如果你在 2017 年把 Gemini 3 或 Claude 4.5 Opus 展示给我看,我会认为它会让一半的白领失业。然而,AI 对劳动力市场的影响,即便真的存在,也需要用显微镜盯着电子表格才能看到。

我还发现私人资本对 AI 投资的规模和速度也令人惊讶。即便在几年前,人们还在讨论 AGI 必须是政府主导的 “曼哈顿计划”,因为那是将经济转化为算力和数据引擎的唯一方式。但到目前为止,看起来老式的市场力量完全可以支撑占 GDP 好几个百分点的 AI 投资。

Michael: Dwarkesh 关于图灵测试的观点很好——那确实曾被讨论了很久。但在过去,例如工业革命和服务业革命期间,对劳动力的影响是如此巨大,以至于必须建立和扩大义务教育,以便让年轻人更久地留在劳动力池之外。我们显然还没有看到类似的事情发生。

Jack: 是的,Dwarkesh 和 Michael,AI 社区的一个常态是:他们不断构建所谓衡量真实智能的难题,然后 AI 系统冲破了这些基准测试,接着你会发现自己面对的是一个表面上非常有能力、但仍可能犯下任何人类看来都极度荒谬或不可思议的错误的系统。最近的一个例子是,根据基准测试,LLM 在一系列所谓的困难认知任务中得分达到了 “超人” 级别,但在犯错时却无法自我修正。现在这一点正在改善,但这说明了 AI 模型的弱点是多么不符合直觉。而且你经常在看到巨大进步的同时发现这些弱点。

Dwarkesh: 我在想反过来是否也成立——人类是否会稳定地犯下 LLM 认为极其荒谬或不可思议的错误?LLM 真的比人更 “参差不齐” 吗,还是只是参差的方式不同?

Patrick: 借用 Dwarkesh 书中的一个观察:LLM 表现出超人能力的一个平凡方式是,它们会说的语言比任何人类都多——多到了超乎想象的程度——而且其熟练程度超过了几乎所有的多语言学习者。令人难以置信的是,这是偶然发生的,甚至实验室并没有专门为此进行训练。我见过最令人目瞪口呆的演示之一,是一个原本只打算用英语文档训练的 LLM,竟然能将一篇 CNN 新闻文章翻译成日语,水平大致相当于专业翻译。从这个角度来看,一个没有被训练过 “礼貌” 的 LLM 可能会说:“人类真是奇怪且偏科;看看他们中有多少人生活在一个有书的世界里却不会说日语。”

为什么许多工人还没开始用 AI(目前)

Patrick: 编程似乎是 AI 大规模工业应用的先锋,像 Cursor 这样的公司收入暴涨,有品位的技术专家开始使用 Claude Code 和 OpenAI Codex,“氛围编码”(vibe coding)的说法流传甚广。这导致了对 AI 热情的明显不对称,因为大多数人不是程序员。下一个改变的行业是什么?什么样的改变会使其显现在财报、就业或价格中,而非仅仅是演示 Demo?

Jack: 编程有一个很好的属性,即它是相对 “闭环” 的——你用 LLM 生成或调整代码,然后验证并将其推向生产环境。直到更广泛的一套工具出现,LLM 才在编程以外的领域具备了这种 “闭环” 属性——例如,网页搜索能力的建立以及像模型上下文协议(MCP)连接等功能的出现,使得 LLM 能将其 “闭环” 效用大幅扩展到编程之外。

举个例子,我最近一直在研究各种事物的成本曲线(比如每公斤入轨成本,或每瓦太阳能成本),在有这些工具之前,你也可以用 LLM 调研,但摩擦力巨大,迫使你在 LLM 和其他工具之间来回切换。现在这种摩擦消失了,你会看到采用率大幅提升。因此,我预计程序员身上发生的事情即将在更广泛的知识工作者身上发生——这应该会以一种弥散但广泛的方式显现在科学研究、法律、学术、咨询等领域。

Michael: 归根结底,AI 必须由某人买单。外面的某人为商品或服务付钱,那就是 GDP。这种支出的增长速度是 GDP 级别的,2% 到 4%——拥有定价权的公司可能会有一些提升,但在未来的 AI 领域这似乎不太可能。

经济体的 “蛋糕” 不会魔法般地膨胀,而是受到算术约束。没什么玄学。整个软件蛋糕——运行各种企业和创意功能的 SaaS 软件——不到 1 万亿美元。这就是为什么我一直回到基础设施与应用的比例问题上——英伟达卖出了 4000 亿美元的芯片,对应的终端 AI 产品收入却不到 1000 亿美元。

AI 必须提高生产力并创造出不会蚕食其他类别的全新支出类别。这都非常难。AI 能否足够地提高生产力?这值得商榷。目前的资本支出周期是基于信仰和 “错失恐惧症”(FOMO)的。还没有人能拿出真正行得通的数据。至少现在还没有。

外界有一种很简单的叙事,认为 AI 会让一切变得如此美好,以至于支出会爆炸。但更有可能的是,它会缩减支出。如果 AI 把一个 500 美元的席位授权替换成了 50 美元的,那对生产力是好事,但对生产力支出却是通缩的。而且获得的生产力增益很可能会被所有竞争对手共享。

Dwarkesh: Michael,这难道不是 “劳动总量谬论”(lump of labor fallacy)吗?即认为要写的软件总量是固定的,并以此作为 AI 对软件影响的上限?

Michael: 新市场确实会出现,但它们的发展速度比那些受利益驱动的未来主义者所认为的要慢。这向来如此。人口结构和总潜在市场(TAM)往往只是营销噱头,而非立足现实。欧洲人口在萎缩。美国是唯一增长的主要西方国家,那是因为移民,但移民问题也被政治化了。FOMO 是一剂猛药。看看苹果或微软的一些评论,似乎他们也意识到了这一点。

Dwarkesh: 顺便提一句,挺有讽刺意味的是,AI 出现的时候,恰好我们需要它把我们从未来几十年经济本会陷入的人口结构深坑中拯救出来。

Michael: 是的,Dwarkesh。在医疗领域,存在真正的短缺,未来人类医生的人数不可能足够多。高质量的医疗必须变得更便宜,需要技术来扩展真实医疗专业知识的触达范围和覆盖面。

工程师会失业吗?

Patrick: “五大巨头”(AppAmaGooFaceSoft,即苹果、亚马逊、谷歌、脸书、微软)目前雇佣了约 50 万名工程师。请给出一个 2035 年的数字并解释你的逻辑——或者论证员工人数是一个错误的变量,并指出你应该关注的资产负债表或生产力指标。

Michael: 从 2000 年起,微软增加了 1.8 万名员工,而其股价在 14 年间原地踏步。事实上,尽管经历了严重的股市崩盘,思科、戴尔和英特尔的员工人数几乎没有变动。所以我认为这是一个错误的变量。它告诉不了我们关于价值创造的任何信息,特别是对于现金充裕且处于垄断、双头垄断或寡头垄断地位的公司。我认为这个数字会更低,或者高不了多少,因为我认为我们正走向一个非常长期的衰退。超大规模云厂商在 2022 年股价下跌时裁员,股价上涨时又把大部分人雇了回来。这只是几年的波动。

我会跟踪 “股权激励”(SBC)的总成本,然后才敢说生产力正在创纪录地增长。在英伟达,我计算出其利润的大约一半被与股票挂钩的薪酬抵消了,这些价值转移给了员工。好吧,如果一半的员工现在身价 2500 万美元,那么这些员工的生产力增益体现在哪?更不用说,如果准确计入 SBC 成本,利润率会低得多。

衡量一切的核心指标是投资资本回报率(ROIC),而这些软件公司的 ROIC 曾经非常高。既然它们现在正变成资本密集型的硬件公司,ROIC 肯定会下降,这从长远来看会压低股价。在市场上,没有什么能比 ROIC 的方向(上升还是下降)以及速度更能预测长期趋势了。现在这些公司的 ROIC 正在飞速下滑,这种情况将持续到 2035 年。

在 Dwarkesh 的采访中,Satya Nadella 说他希望软件能在沉重的资本支出周期中维持 ROIC。我看不到这种可能,甚至对 Nadella 来说,这听起来也只是一个希望。

Dwarkesh: 一个幼稚的问题,为什么 ROIC 比绝对回报更重要?我宁愿拥有一家能不断成长的大型企业(哪怕投资回报占比变小),也不愿拥有一家虽然像印钞机一样赚钱但规模有上限的小企业。

许多大科技公司的 ROIC 虽然降低了,但它们在未来 20 年的潜在市场已经从广告(每年 4000 亿美元收入)增加到了劳动力(每年数十万亿美元收入)。

Michael: 投资资本回报率——更重要的是它的趋势——是衡量一家公司还剩下多少机会的指标。在我看来,我见过许多通过债务收购其他公司来做大的 “并表” 案例。这会让 ROIC 变得无比清晰。如果这些收购的回报最终低于债务成本,公司就会像世通公司(WorldCom)那样崩溃。

在某个时点,AI 建设的这些支出必须获得高于投资成本的回报,否则就没有任何经济价值增量。如果一家公司仅仅是因为借了更多钱或把所有现金流花在低回报项目上而变大,那对投资者来说并没有吸引力,市盈率会下降。有许多非科技公司在产生大量现金,但除了买现成的,没有任何真正的增长前景,它们的交易市盈率大约只有 8 倍。

钱都流向了哪里?

Patrick: 从资本周期的角度看,你认为我们处于 AI 建设的哪个阶段——早期过度投资、中期洗牌,还是某种与以往科技热潮结构截然不同的阶段?什么会改变你的看法?

Michael: 我确实认为这与之前的热潮不同,不同之处在于资本支出极其短促。芯片现在每年都在迭代;今天的数据中心将无法承载几年后的芯片。甚至可以争论,这里面的很大一部分应该计入费用,而不是资本化。或者应该按两、三、四年进行折旧。

另一个巨大的区别是,私人信贷(private credit)对这场热潮的融资力度不亚于甚至超过了公开资本市场。私人信贷是一个模糊的领域,但期限错配非常突出——其中大部分资产被证券化,就好像它们能持续 20 年一样,同时却给了超大规模云厂商每四到五年一次的退出机会。这简直是在自找麻烦。会出现大量搁浅资产。

当然,花钱的是地球上最富有的公司。但无论是来自现金还是资本市场,巨额支出就是巨额支出,计划中的支出已经压倒了即便像今天这样庞大的云厂商的资产负债表和现金流。

此外,“在建工程”(CIP)现在是一种会计手段,我相信它已经在被利用了。尚未 “投入使用” 的资本设备不会开始折旧,也不会冲减收入。它们可以永远待在那儿。我预见会有大量搁浅资产被隐藏在 CIP 中以保护利润,我认为我们已经看到了这种苗头。

在 Dwarkesh 的采访中,Nadella 说他撤回了一些项目并放慢了建设进度,因为他不想被一代芯片的四五年折旧给套牢。这无异于某种 “自供状”。

我们现在正处于周期中期——已经过了股市会因进一步建设而奖励投资者的阶段,正进入真实成本和收入匮乏开始显现的时期。

在过去的周期中,股市和资本市场大约在半程见顶,剩下的资本支出是在对相关资产日益悲观(或者说回归现实)的观点下完成的。

Dwarkesh: 我认为这完全取决于 AI 是否继续快速进步。如果你真的能在 B200 芯片上运行最聪明的人类大脑,那我们显然是投资不足。我认为目前应用层的收入信息量不如对 AI 能力进步本身的原始预测。

Jack: 同意这一点——近年来能力的进步程度令人深感意外,并导致 AI 使用量的爆发式增长。未来模型能力可能会有进一步的阶跃式提升,这可能对经济产生极其显著的影响。

市场错在了哪里?

Patrick: 在 AI 供应链中,价值积累到了哪里?这与近期或历史上的技术进步有何不同?你认为目前市场对谁的误判最深?

Michael: 历史上看,在所有行业中,价值都积累在那些拥有持久竞争优势的人手中,这种优势表现为定价权,或者是无法逾越的成本或分销优势。

目前还不清楚这里的支出是否会导致这种结果。

沃伦·巴菲特在 1960 年代末拥有一家百货商店。当街对面的百货商店装了自动扶梯时,他也必须装一个。最后,谁也没从那个昂贵的项目中受益。没有持久的利润率改善或成本改善,双方仍处于完全竞争状态。大多数 AI 的落地过程也将如此。

这就是为什么数万亿美元的支出却看不到清晰的实体经济应用路径是如此令人担忧。大多数人不会受益,因为他们的竞争对手会以同样的程度受益,谁也不会因此获得竞争优势。

我认为市场对 AI 的两个标杆公司——英伟达和 Palantir 的误判最深。这是两家最走运的公司。它们适应得很好,但它们之所以走运,是因为当这一切开始时,谁也没设计过专门针对 AI 的产品。但它们恰好被当作 AI 产品来用了。

英伟达的优势并不持久。对于 AI 的大多数用例来说,SLM 和 ASIC 才是未来。如果有必要,它们会向后兼容 CUDA。英伟达是一个功耗巨大、不够优雅的临时方案,仅仅是在竞争对手带着完全不同的方案杀入之前守住阵地。

Palantir 的 CEO 因为臆想中对我公司 10 亿美元的看空押注而把我比作 [坏人]。这不是一个自信的 CEO 该有的样子。他在拼命营销以维持现状,但这会滑坡的。在计入股权激励后,该公司几乎没有盈余。

Dwarkesh: AI 实验室能否通过递归自我改进效应获得持久的竞争优势,仍有待观察。但如果 Jack 是对的,AI 开发者应该已经看到了巨大的生产力提升,那么为什么现在的竞争反而比以往任何时候都激烈呢?要么是这种内部的 “吃自家狗粮” 无法维持竞争优势,要么就是 AI 带来的生产力提升比看起来要小。

如果结果证明(1)AI 产业链上没人能赚到疯狂的利润,且(2)AI 仍然是一件大事,那么显然价值就积累到了客户手中。在我听来,这挺棒的。

Michael: 在自动扶梯的例子中,唯一的价值确实流向了客户。如果生产者或提供者无法收取垄断租金,情况总是如此。

什么会改变他们的看法

Patrick: 什么样的 2026 年头条新闻(无论是技术还是财务方面的)会让你感到意外,并促使你重新校准对 AI 进展或估值的整体看法?回顾过去,迄今为止最大的惊讶或认知的重新校准是什么?

Michael: 最让我惊讶并促使我重新校准的事情,将是自主 AI 智能体在大型公司中取代了数百万个工作岗位。这会震惊我,但不一定能帮我理解持久优势在哪里。又是那个巴菲特扶梯的例子。

另一个是应用层收入因为杀手级应用的扩散而达到 5000 亿美元或更多。

目前,我们将看到两种情况之一:要么英伟达的芯片能撑五到六年,因此人们对它们的需求会减少;要么它们只能撑两到三年,这样云厂商的利润会崩盘,私人信贷会被摧毁。

回顾过去,迄今为止最大的惊讶是:

  1. Google 竟然没有一路领先——《Attention Is All You Need》的八位作者全是 Google 员工;他们拥有搜索、Gmail、Android,甚至拥有 LLM 和芯片,但他们搞砸了,给了那些底子薄得多的竞争对手可乘之机。Google 在 AI 领域追赶一家初创公司:这太不可思议了。
  2. ChatGPT——一个聊天机器人开启了一场数万亿美元的基础设施竞赛。这就像有人做了一个原型机器人,然后全世界的企业都开始为机器人未来进行投资。
  3. 英伟达在推理时代竟然能维持这么久的统治地位。我本以为 ASIC 和 SLM 到现在应该已经占据主导地位,而且我们应该已经超越了提示词工程(prompt engineering)阶段。也许是对英伟达的痴迷阻碍了参与者,或者是英伟达的反竞争行为造成的。

Dwarkesh: 对我来说最大的惊讶将是:

  1. 2026 年 AI 实验室的累计收入低于 400 亿美元或高于 1000 亿美元。这将意味着情况比我预期的显著加速或减速。
  2. “持续学习” 问题得到解决。不是像 GPT-3 那样 “解决” 了上下文学习,而是 GPT-5.2 在从上下文中理解事物的能力上几乎像人一样。如果与模型合作就像复刻一个已经和你共事了六个月的老员工,而不是在它入职的第一小时榨取它的劳动力,我认为这将是 AI 能力的一次巨大释放。

我认为 AGI 的时间表自 2020 年以来已显著缩短。那时,你可能会给 “将 GPT-3 扩展一千倍就能达到 AGI” 分配一定的概率,也可能会给 “我们完全走错了路,必须等到世纪末” 分配一定的概率。如果进步突破了趋势线,并指向未来 5 到 20 年内出现真正的、可替代人类的智能,那将是我最大的惊讶。

Jack: 如果 “缩放撞墙了”,那将是真正令人惊讶的,并且对底层研究范式以及更广泛的 AI 经济产生极其深远的影响。显然,基础设施的建设,包括对未来 AI 模型训练设施的巨额投资,表明人们正在赌缩放不会撞墙。

另一件让我感到惊讶的事是:如果出现了一种能提高分布式训练效率的技术突破,并且有一组行动者集结了足够的计算机来训练一个非常强大的系统。如果这发生了,意味着你不仅能拥有开源权重模型,还能拥有一种 “开放式模型开发” 模式,即训练一个前沿模型不再需要一个庞大的单一实体(如一家公司)。这将改变 AI 的政治经济格局,并产生极其重大的政策影响,特别是围绕前沿能力的扩散。Epoch 对分布式训练有一份很好的分析,大家可以参考。

他们实际上是如何使用 LLM 的

Patrick: 你最近一次在专业上具有重大意义的 LLM 交互是什么?如果需要,请隐去敏感细节。在那次交互中,你与 LLM 的关系是怎样的?

Michael: 我现在用 Claude 生成我所有的图表和表格。我会找到原始资料,但我不再花时间创建或设计专业的表格、图表或视觉效果。我仍然不信任那些数字,需要核对它们,但那种创意工作对我来说已成过去。相关地,我会专门用 Claude 来寻找原始资料,因为现在的许多资料不再仅仅存在于证监会(SEC)或主流报告中。

Patrick: 我认为金融圈以外的人无法理解,世界上有多少拿最高薪水、受过最好教育的人被雇来充当微软 PowerPoint 和 Excel 专家。虽然目前这仍有价值,或许数据透视表和 VLOOKUP() 的社会地位价值会比它们的功能价值存续更久,但我在英格兰银行的演讲中,所有图表也都使用了 LLM。回想起来,我们曾经要求人类花几个小时仔细调整它们,这简直不可理喻。

Dwarkesh: 它们现在是我的私人一对一导师。我曾尝试为我正在准备的不同课题雇佣人类导师,但我发现 LLM 的响应速度和速度使体验在质量上要好得多。我正在获得一种数字化的等效体验:就像人们愿意为 Waymo 支付远高于 Uber 的溢价一样。这让我倾向于认为,许多工作的 “人类溢价” 不仅不会高,事实上可能会变成负数。

Michael: 关于这一点,许多人认为蓝领手艺活是免疫 AI 的选择。考虑到我现在只需 Claude 在侧,就能自己完成多少家里电路和其他方面的维修活,我不确定这是否正确。如果我属于中产阶级,面临一次 800 美元的管工或电工出工费,我可能直接就用 Claude 了。我太喜欢这种感觉了:拍张照,然后搞清楚修理它所需的一切步骤。

风险、权力,以及如何塑造未来

Patrick: 相对知情的人对 AI 风险的看法五花八门,从 “可能会给社交媒体带来不快”,到 “下行风险包括人类珍视的一切彻底毁灭”。什么最让你夜不能寐?另外,如果你有五分钟时间与资深决策者面谈,你会建议他们如何重新分配注意力和资源?

Jack: 我最担心的是人们是否能成功实现 “让 AI 构建 AI”——完全闭合 AI 研发的循环(有时称为递归自我改进 AI)。明确地说,我认为到 2026 年 1 月,地球上出现递归自我改进 AI 系统的可能性基本为零,但我们确实看到了 AI 在处理 AI 研究组件(从内核开发到自主微调开源权重模型)方面变得更好的极早期迹象。

如果这些东西持续变好,你最终构建了一个能构建自身的 AI 系统,那么 AI 的开发将会戏剧性地加速,并且可能变得更难被人类理解。这将带来一系列重大的政策问题,并可能导致由 AI 系统驱动的世界经济活动发生前所未有的阶跃式变化。

换句话说,如果我有五分钟时间面对政策制定者,我会对他们说:“自我改进的 AI 听起来像科学幻想,但现有技术中没有任何证据表明它是不可实现的。如果它真的发生了,那将是天大的事,你们必须关注它。你们应该要求 AI 公司提供透明度,说明他们在这里到底看到了什么,并确保你们拥有信任的第三方可以测试 AI 系统的这些特性。”

Michael: Jack,我猜决策者会听取你的意见,我也希望他们听。

就目前的 AI 而言,就人类面临的风险来说,它并不太让我担心。我认为聊天机器人有可能让人变蠢——过度使用它们的医生会开始忘记他们天生的医学知识。这不好,但不是灾难性的。

涉及 AGI 或人工超级智能(ASI)的毁灭性担忧对我来说没那么可怕。我是在冷战中长大的,世界随时可能爆炸。我们那时在学校为此做演习。我踢足球时,直升机就在我们所有人头上喷洒马拉硫磷。我在 30 多年前就看过了《终结者》。《赤色黎明》当时看起来也很可能发生。我认为人类会适应的。

如果我有机会向资深决策者进言,我会请求他们拿出 1 万亿美元(既然现在数万亿美元就像几百万一样被随手扔出),绕过所有的抗议和监管,在全国各地点缀小型核反应堆,同时为所有人建设一个全新的、世界顶级的电网。尽快完成这件事,并利用最新的物理安全和网络安全措施保护它;甚至可以创建一个专门的核能防卫部队来保护每个设施,由联邦政府出资。

这是我们作为一个国家实现足够增长以最终偿还债务并保证长期安全的唯一希望——绝不能让能源成为限制我们创新的因素。

Jack: 强烈赞同能源部分(虽然我们对其他事情的主观担忧程度可能不同!)。AI 将在经济中发挥重要作用,而它从根本上依赖于基础设施,以便高效、廉价地交付给企业和消费者——这类似于过去各国决定进行大规模电气化、修路、建下水道等(大规模资本支出项目!)。我们现在急需在能源领域做同样的事。

我还认为大规模 AI 数据中心是新型能源技术非常有用的试验客户,我特别兴奋地期待看到未来 AI 能源需求与核能技术的融合。更广泛地说,我认为 “经济安全就是国家安全”,因此确保我们拥有建设 AI 经济所需的基础设施,将对我们的工业基础和整体稳健性产生连锁的积极影响。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。