The Transformation Journey of Tencent's Hunyuan Over Three Years

华尔街见闻
2026.01.08 06:35
portai
I'm PortAI, I can summarize articles.

腾讯在 2023 年启动大模型研发,首次将大语言模型作为重点项目,由 27 岁的姚顺雨负责。混元的下一个版本将是 Agent 模型,姚顺雨主导训练。腾讯在经历多重低谷后,计划在 2025 年对标全球顶尖大模型。青云计划是针对优秀毕业生的 AI 人才招聘,腾讯通过高薪挖人行动吸引字节跳动的优秀人才。

Key Points

2023 年启动大模型研发以来,腾讯第一次把大语言模型变成一把手工程,负责人是个 27 岁的年轻人;

混元下一个版本将是一个 Agent 模型,主要由姚顺雨主导训练;

在姚顺雨入职前,混元有过两位总负责人:张正友与蒋杰。两人背景主要是计算机视觉和大数据,而非自然语言处理;

ChatGPT 发布的 2022 年,腾讯正在经历多重低谷。低谷之一是游戏业务,在此之前,腾讯在 2020 年左右面临过一个更大的危机:QQ 的「孵化器魔法」失效了;

有「配方」、也有更多资源后,腾讯训练出下一代基座模型的时间可能会更短。但也意味着,姚顺雨和腾讯的甜蜜期差不多就是半年。

2025 年 11 月下旬,大学毕业生林枫在深圳参加了腾讯青云计划闭门会。活动采取定向邀请制,为期两天,会议内容除了邮轮观光、参观腾讯总部,还有一个环节是部门见面会——姚顺雨在现场。

这次见面会两个小时左右,姚顺雨是开场发言者,他讲了大概只有 20 分钟,但富有雄心。

「他说混元的目标是对标全球最顶尖的一批大模型。」林枫对第一财经「新皮层」说。

林枫对姚顺雨印象深刻,除了「感觉他是主导混元大模型研发进度的管理者」,他还是林枫在现场看到的腾讯高管中为数不多的年轻人。

姚顺雨,2025 年下半年加入腾讯,此前任职于 OpenAI。

青云计划是腾讯 2023 年下半年提出的面向优秀毕业生的 AI 人才专项招聘,对标字节跳动的 Top Seed 人才计划。

与青云计划同时进行的是腾讯持续一年的高薪挖人行动。长期从事基座模型招聘的许岚告诉「新皮层」,腾讯最重要的挖人对象之一是字节跳动。字节跳动 2-2 职级的候选人,跳槽到腾讯后可以获得 T12 或 T13 的职级,相当于在字节跳动的原职位连升两级。而且,薪酬也会直接翻倍,有的甚至会提升 200%。「这种行情最近一个月才出现,以前字节 2-2 的候选人会定下 T9 或 T10 的职级,薪资涨幅只有 30%。」许岚说。

2025 年的腾讯就是 2024 年的字节跳动。2024 年,字节跳动加速基础模型的研发进度,第一个动作也是抢人才——它当时的抢人对象主要是阿里巴巴,一年后,腾讯「接棒」,从字节跳动抢夺人才。

多位接近腾讯的人士对「新皮层」称,腾讯大概 2024 年年底就开始大规模对外招募基础模型相关的人才,并启动一系列组织架构调整。2025 年 9 月姚顺雨的加入加速了这一进程。

姚顺雨新政

最开始,入职腾讯混元的外部人才主要来自微软。自 2024 年 12 月起,微软开源模型 WizardLM 团队核心成员孙庆丰、微软亚洲研究院视觉计算组前首席研究员胡瀚、微软 WizardLM 团队项目创建者徐灿陆续加入腾讯。然后是 2025 年 8 月,在月之暗面研究语音模型的研究员谭旭入职腾讯——加入月之暗面前,他任职于微软亚洲研究院。

「腾讯只看来自 DeepSeek、月之暗面、字节和阿里这 4 家基座模型团队的候选人,其他公司是不看的。」接近腾讯招聘的人士陈立峰对「新皮层」说。

他对「新皮层」称,2025 年年中,字节跳动曾通过发放「豆包虚拟股」激励员工,相当于为其大模型团队涨薪。但正是在这轮股权激励期间,部分字节豆包员工乘势转身加入了腾讯混元,原本年薪总包约为 250 万至 300 万元的字节跳动员工,加入混元后能拿到年薪 300 万以上的 Offer。

2025 年 12 月,字节跳动再次向全球员工发布了一封涨薪邮件,将公司整体奖金和调薪投入分别提升 35% 和 1.5 倍,以确保员工薪酬的竞争力和激励回报在全球各个市场都「领先于头部水平」。

在字节的防守下,腾讯的抢人计划也加大了力度。「姚顺雨的加入是腾讯混元人才招聘的一个关键节点。」许岚说,姚顺雨来之前,高管加盟腾讯「属于大厂间的正常人才流动」,姚顺雨加入后,混元不仅加强了招聘力度,「对候选人信息的保密性处理也升级了」。以姚顺雨的加入为节点,腾讯招募了更多大语言模型(LLM)相关的人才,在此之前,包括孙庆丰、胡瀚、徐灿、谭旭等在内的加入者主要研究方向都以多模态为主。

多位招聘方人士告诉「新皮层」,姚顺雨会在与 LLM 相关的招聘中担任面试官,部分候选人由他亲自引荐。这些新招募的人中,至少有 3 位 T12 职级的人才来自字节 Seed 团队和 DeepSeek,其中一位负责预训练的数据工作,还有一位和姚顺雨一起做大模型的前沿探索。

部分混元员工因为姚顺雨的到来信心倍增。「他们认为姚顺雨可能会为内部争取更多激励,就像字节 Seed 为团队成员发豆包股一样。」许岚说,姚顺雨接手腾讯混元大模型不久,就与每位团队成员都有过接触、聊天,还参加了不同研究小组的团建和聚餐。

姚顺雨的举动获得了部分员工的信任。一位内部员工认为他「性格讨喜,跟着他干活有信心」,另一位内部员工认为他「管理能力出色」。但也有部分混元成员开始担心能力不足被调整,开始主动寻求外部机会。「从混元离职的人可能会变多,无论主动还是被动。」许岚说。

换血只是姚顺雨加入混元后的新政之一。在模型策略上,他也提出了不同于混元大模型前任领导者的观念。

接近腾讯混元的人士告诉「新皮层」,相较于前任负责人,姚顺雨更加重视后训练——这在很多人的意料之中,姚顺雨此前的主要工作都与后训练更相关。不过除此之外,他还打算从预训练的数据部分入手,「从数据开始重新训练混元」,这相当于回到起点。林枫称,姚顺雨在 11 月的青云计划闭门会上还提出过一个明确要降低「发版速度」的计划,「他说以前混元模型在内部更新版本的速度很快,有时候一周就会发布两个版本。他来到这里的第一件事就是降低发版速度,打磨好整体模型再发。」林枫说。

在被腾讯挖角之前,姚顺雨只在 OpenAI 工作过一年,深度参与 Operator、Deep Research 等智能体项目。更早之前,他刚刚从普林斯顿博士毕业,研究方向是自然语言处理与强化学习。攻读博士学位期间,他的主要科研成果有两个,一个是 ToT(Tree of Thoughts,思维树),这个计算框架让 AI 在解决复杂问题时能够将问题拆解为多步思维步骤并探索多条路径,最终找到最优路径。还有一个是 ReAct,这个算法让大模型可以边推理边行动。ToT 和 ReAct 都可应用于模型的后训练阶段,提升模型的多步推理和动手操作能力。OpenAI 的 Operator、Deep Research 等智能体项目中都有 ToT 和 ReAct 的影子。

也就是说,腾讯把姚顺雨从 OpenAI 挖过来时,他只有一年的工作经验。但腾讯提供的可能是国内大模型人才战中无论职位还是薪酬都最高的标准。2025 年 9 月,市场传闻腾讯为了挖走他开出了上亿元的薪水,腾讯随后辟谣。这个数字不一定真实,但 1998 年出生的姚顺雨一定是国内大厂中最年轻的大语言模型(LLM)「一号位」。

2025 年 12 月,腾讯宣布混元组织架构调整,官宣姚顺雨出任「CEO/总裁办公室」首席 AI 科学家,向腾讯总裁刘炽平汇报,他同时兼任 AI Infra 部、大语言模型部负责人。一位接近腾讯的人士告诉「新皮层」,姚顺雨平时在香港办公室工作。另据一位腾讯内部人士称,腾讯的 CEO/总裁办公室在列的人员名单上只有姚顺雨一个人。

这是 2023 年启动大模型研发以来,腾讯第一次把大语言模型变成一把手工程。而且,这个模型负责人对下辖的团队拥有直接而全面的管理权和人事权。「刘炽平是财务出身,并非技术背景。姚顺雨直接向他汇报,获得资源支持的效率就更高了。」腾讯 AI Lab 离职员工秦莹莹对「新皮层」说,在此之前,腾讯的自研模型混元有着很长的向上汇报链路,以及复杂的向下管理体系。

混元跟着跑

2025 年从年头冲刺到年尾的一系列人事和组织变阵表明,腾讯在大模型领域开始着急。令这家大公司着急的直接原因就是,其自研模型混元的表现在大模型竞争中不够靠前。

「很多公司发新模型时,会被拿来在 Benchmark 中对比的模型基本就是 GPT、Claude、Gemini、千问、Ki mi 和 DeepSeek,你不会看到豆包,也不会看到混元。」一位大模型业内人士对「新皮层」说,这种选择基本代表了行业对谁在模型第一梯队的认知。

马化腾在 2023 年 5 月的股东大会称,「对于工业革命(级的机遇)来讲,早一个月(还是晚一个月)把电灯泡拿出来,在长的时间跨度上来看是不那么重要的。」但大模型如今已经变成了一门「实验科学」,「从基础架构到注意力机制,从参数量到优化算法……每个环节都有多种方案,你需要做实验才知道能不能行得通、在多大规模的参数量上行得通。」上述大模型业内人士说。这种实验性意味着,晚起步虽然有成熟方案可以借鉴,但也会比其他选手缺少从实验中积累的经验,行动越慢差距越大、越难追赶。

腾讯是国内大厂中最晚推出自研大模型的公司。2022 年 11 月的最后一天,OpenAI 发布 ChatGPT。4 个月后,2023 年 3 月,百度发布了第一代大模型文心一言;同年 4 月,阿里巴巴发布通义千问大模型;同年 8 月,字节跳动也发布了首代大模型云雀(注:后更名为豆包大模型)。

腾讯的起跑速度就慢于这 3 家公司。2023 年 2 月,腾讯才开始组建一个叫「混元助手」的团队,从各事业群集结人才,由时任腾讯 AI Lab 主任张正友担任项目总负责人。

多位腾讯离职员工对「新皮层」称,腾讯在大模型领域的缓慢起跑与公司内部节奏有相当大关系。在 ChatGPT 发布的 2022 年,腾讯正在经历多重低谷。

低谷之一是游戏业务。2022 年,中国游戏行业版号获批通过的总量同比减少了 32%,是过往年份中数量最少的一年。另一位腾讯离职员工告诉「新皮层」,游戏是腾讯最赚钱的业务之一,受版号锐减影响,游戏营收不确定性变高,公司当年就进行了「降本增效」,就连腾讯 TEG(技术工程事业群)这样的技术中台也要自负盈亏。后来主导混元模型研发的张正友所领导的 AI Lab 就隶属于 TEG。「那时 AI Lab 并不鼓励研究员发论文,员工若要参加学术会议,还要蹭高校的预算才能去开会。」他对「新皮层」说。

腾讯 AI Lab 离职员工秦莹莹称,AI Lab 在 2016 年成立时主要任务还是做基础研究。但 2018 年左右,AI Lab 就拆分成了两个部分,只有少部分人继续留做 AI 基础研究,其他大部分成员都要开始服务于公司的游戏与广告业务。

而且,这位 AI Lab 离职员工称,在游戏业务陷入危机之前,腾讯在 2020 年左右面临过一个更大的危机:QQ 的「孵化器魔法」失效了。

2020 年之前,腾讯的很多新业务、新产品——比如 QQ 音乐、腾讯视频——都是通过 QQ 孵化成功的。那时 QQ 扮演了一个分发渠道和入口的角色——就像今天抖音在豆包的分发中所扮演的角色一样。但在 2020 年左右,腾讯的很多新业务都难以复制过去的成功路径,比如腾讯电商、对标今日头条的天天快报,以及对标抖音和快手的腾讯微视,都没有获得预期的成功。2020 年,腾讯的另一大分发渠道——微信——的月活用户已经达到 12.25 亿,成为移动互联网时代的超级入口,但它至今没有施展比肩当年 QQ 孵化新产品的魔法。

众多新业务中,唯一一个被腾讯高层认为有潜力的是视频号。上述腾讯离职员工称,2022 年,腾讯创始人、董事长兼 CEO 马化腾在内部员工大会上称「微信事业群最亮眼的业务是视频号,基本上是全场的希望」。到了 2023 年,马化腾又在股东大会上表示「AI 是类似工业革命一样几百年不遇的机会」,但整个 2023 年和 2024 年,这位腾讯离职员工称,他都没有听到公司从整体战略上多么强调过大模型,不断被强调的依然是视频号。

根据上述腾讯 AI Lab 离职员工的说法,2023 年时腾讯内部不同事业部如果想要训练模型,需要向公司总办申请预算和立项,「当时训练模型的成本还很高,一次试错动辄几百万美元。就算训练成功,模型的用途是什么?那时候还没人能说清楚。」这位腾讯 AI Lab 离职员工称。

一号位难当

3 年的大模型军备竞赛已经让业界发现,大模型不仅是门实验科学,还开创了前所未有的开发范式:它无法通过工业时代那样主要依靠自上而下的明确规划分工,以及大量工程师之间的分工合作完成;与这种依赖各个技术骨干的开发模式不同,大模型开发是一种系统工程,如果没有一号位头脑中对模型从预训练数据到预训练架构和算法、后训练路径以及基础设施层面的整体实验构想,一个模型无法从多个技术骨干的暴力开发中产生。

上述腾讯 AI Lab 离职员工告诉「新皮层」,启动大模型研发后的 3 年中,腾讯很长时间里没有为混元团队匹配到一位合适的技术领导者。微信团队也曾训练过一个模型,后来放弃了。

上述腾讯 AI Lab 离职员工告诉「新皮层」,在姚顺雨入职前,腾讯混元有过两位总负责人:张正友与蒋杰。张正友的研究方向是计算机视觉,他发明的平板摄像机标定法在全球被普遍采用,被称为「张氏方法」。但大模型中最核心的模型是 LLM,LLM 的核心是自然语言处理,而非图像处理。

「张正友管理了近半年后,并没有交出够好的成果。蒋杰之后主动接手了混元项目,因为他认为大模型可以服务于广告投放。」秦莹莹说。

蒋杰 2012 年加入腾讯,是腾讯企业发展事业群(CDG)与技术工程事业群(TEG)副总裁,负责腾讯广告平台产品技术管理工作。

在蒋杰的总负责下,刘威和王迪都曾短暂地直接管理过混元一段时间,「刘威类似于统筹者,王迪类似于执行者」,秦莹莹告诉「新皮层」。不过,刘威和王迪的技术背景也都与自然语言处理关联不深,其中刘威的核心工作方向是计算机视觉,他在 2024 年年底从腾讯离职后,创办了一家叫 ReBirth 的公司,主要方向是视频生成。王迪 2008 年通过校招加入腾讯,主导混元 LLM 模型前主要在 TEG 负责数据与搜广推算法方面的工作。

2024 年 11 月,蒋杰也开始不再实际管理混元项目下的 LLM 部分了,只实际负责混元多模态模型。前述腾讯 AI Lab 离职员工称,当时整个 LLM 团队都在等待一位据说是「来自微软的高阶人才」,但这位微软系一把手一直没有被等到。直到 2025 年 9 月,姚顺雨来了。

在姚顺雨负责混元 LLM 模型并直接向腾讯总裁刘炽平汇报之前,混元的 LLM 负责人是个向上、向下都很难推动工作的夹心角色。秦莹莹告诉「新皮层」,在张正友与蒋杰带队期间,混元 LLM 模型曾有一个小组长,但他的职级并不高,距离触达刘炽平至少存在大模型技术负责人王迪、混元大模型负责人蒋杰、TEG 总裁卢山三个层级。这种架构使他不可能像姚顺雨那样与刘炽平直接沟通、获得资源支持。

对下管理方面,这位组长也需要横跨 TEG 的多个部门,才能接触到他的项目相关成员。2023 年成立的混元是一个虚拟团队,其成员来自 AI Lab,甚至是 TEG 的多个部门。

秦莹莹对「新皮层」说,机器学习部、数据平台部等部门均隶属于 TEG 旧的组织架构,而非混元团队。抽调去参与混元项目的员工们还要额外服务于腾讯不同部门、不同业务的 AI 需求。「混元有小半年的时间比较混乱,职责与权限没有梳理清楚。无论是张正友还是蒋杰,都没能把团队真正整合起来。」她说。

直到 2025 年 4 月,腾讯才从组织上配备了一个类似字节 Seed 那样的独立团队,在 TEG 体系内成立大语言模型部与多模态模型部。12 月官宣姚顺雨入职后,腾讯进一步调整组织架构,新成立了 AI Infra 部、AI Data 部与数据计算平台部,第一次从组织架构上匹配大模型时代的研发需求。

多位招聘方人士及腾讯员工对「新皮层」称,腾讯 AI Lab 目前已被逐渐弱化,多位成员已经离职,AI Lab 副主任俞栋也将于 1 月底离开。许岚告诉「新皮层」,AI Lab 现在的工作重点就是做探索性研究、对外发表论文。这意味着腾讯 2016 年成立的 AI Lab 实际上已经反过来成为混元的一个下属部门,而不再是它的上层管理机构。

「新皮层」获得的消息称,随着俞栋离职,AI Lab 的语音与自然语言处理研究方向也将被裁撤。剩下的两个方向是胡瀚负责的多模态理解方向,以及一位来自字节 Seed 前成员负责的多模态理解和生成统一方向。

直到 2025 年年底,混元才变成一个更接近于字节 Seed 的架构,而类似的组织架构调整,字节在 2023 年下半年就动手了。这个迟来但大手笔的调整意味着,摆在姚顺雨这位 27 岁大语言模型一号位面前的障碍,腾讯已基本为其扫清。

加速理论与甜蜜期

进入大模型军备竞赛的第三年,落后者赶上先发者的最优路径已经非常清晰:要想快速交出符合市场预期的模型,最好直接效仿被证明有效的成熟做法,走别人走过的成功之路,而不是想着如何创新、弯道超车。

最能说明这一成功法则的例子就是 Google。2025 年之前,「起个大早赶个晚集」在国内形容的是百度,在硅谷形容的则是 Google——它发明了大模型的基础架构 Transformer,但在自 ChatGPT 发布以来的全球模型竞赛中,Google 的 Gemini 始终被认为落后于 OpenAI 的 GPT 和 Anthropic 的 Claude。

上述大模型业内人士告诉「新皮层」,Gemini 2.0 发布之前,Google 一直坚持 Encoder+Decoder(注:编码器 + 解码器,Google 在 2017 年发明 Transformer 架构时的原始形态)架构。2024 年 2 月发布 Gemini 1.5 时,其模型论文中还在强调该架构为什么更优,但到了 2024 年年底发布 Gemini 2.0 时,Google 不再宣传 Encoder+Decoder 的架构如何富有潜力,而是开始和 OpenAI 一样采取 Decoder only(注:纯解码器)架构。

不再偏执地坚持自研架构后,Google 很快就带着 2025 年 3 月发布的 Gemini 2.5 重回业界视野,11 月发布的 Gemini 3.0 直接让 OpenAI 拉响「红色警报」,以应对 Gemini 带来的流量压力。根据 SimilarWeb 统计的 11 月数据,用户在 Gemini 上的平均停留时间已超越了 ChatGPT。

这位业内人士告诉「新皮层」,DeepSeek 2024 年 12 月和 2025 年 2 月先后发布并开源的 V3 和 R1 模型,也分别扮演了 GPT 的 Decoder only 架构曾经扮演的角色——告诉大家一个类 GPT-4 和 OpenAI o1 效果的模型可能是怎样的架构。其中,V3 模型为业界提供了一个可以训练出等效于 GPT-4 模型的「配方」——表明要得到类似的模型效果,模型需要是一个 MoE(混合专家模型)架构,而不能是稠密模型;时隔一个多月后发布的 R1 模型又提供了类 OpenAI o1 的推理模型「配方」——表明强化学习可以直接通过对有推理步骤的语料的模仿学习实现。

「此前,大家其实不知道 GPT-4 是怎么训练出来的,也不知道 o1 是怎么训练出来的。」这位业内人士说,整个 2024 年,国内大模型公司的主要目标就是「赶上 GPT-4」,但不知道如何赶上,OpenAI 从 GPT 3.5 开始就不再在论文中公开其模型核心架构和算法、甚至不发表技术报告了。

DeepSeek V3 和 R1 模型的发布和开源加速了全球类 GPT-4 和 OpenAI o1 模型的推出。聘任一个在 OpenAI 直接参与过模型后训练、并接触过其预训练的研究者担任 LLM 模型负责人,对腾讯混元来说是也是一种加速。

姚顺雨加入腾讯两个月后,2025 年 12 月初,腾讯发布混元 2.0 模型,总参数为 4060 亿。其英文名更新为 HY2.0,被视为重视全球市场的举措。有人猜测该模型就是姚顺雨入职后的成果。但按照业内训练一代模型的周期来看,混元 2.0 不太会是姚顺雨从零开始训练的模型。

「模型参数量与模型能力之间是必要不充分关系,参数量大,模型性能不一定强,但参数量小,模型潜力一定有限。」上述业内人士说,姚顺雨大概率会训练出一个参数量更大的模型,估计需要大半年时间——在有「配方」、有更多资源的条件下,时间可能会更短。这意味着,姚顺雨和腾讯的甜蜜期差不多就是半年,这位 27 岁的年轻管理者需要交出一些实际成果,才能在腾讯这个有着 11 万人的大厂坐稳大模型一号位。

2025 年 4 月,姚顺雨在其个人博客中写下《The Second Half》(下半场)一文,「宣布」大模型已经具备足够的推理能力,大模型竞争已经完成上半场的预训练战斗,进入以后训练和 Agent 开发为主题的下半场。但在腾讯,他得重新鏖战上半场。

一位接近腾讯混元的人士对「新皮层」称,混元下一个版本将是一个 Agent 模型,主要由姚顺雨主导训练。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。