
Evaluation surpasses Google and NVIDIA! Alibaba releases RynnBrain robot large model: enabling robots to have a "thinking brain"

阿里巴巴于 2 月 10 日推出了机器人 AI 基础模型 RynnBrain,旨在赋予机器人感知、决策与执行能力。该模型在多项评测中超越谷歌和英伟达的主流模型,具备时空记忆与推理能力,能够在多任务中保持工作连续性。RynnBrain 的开源策略将推动机器人技术的标准化与产业落地,展现出阿里巴巴在 AI 领域的持续投入。
2 月 10 日,阿里巴巴正式推出机器人 AI 基础模型 RynnBrain。该开源模型旨在为机器人赋予感知、决策与执行能力,推动其在现实场景中的自主任务完成。
RynnBrain 由阿里巴巴达摩院自主研发,具备环境交互、时空理解及任务分解规划等核心能力。该模型可协助机器人完成物体识别与定位、运动轨迹预测,并在厨房、工厂流水线等动态复杂环境中实现精准导航与自主操作。
根据阿里巴巴公布的测试数据,RynnBrain 在多项权威评测中表现突出,超越谷歌 Gemini Robotics-ER 1.5 及英伟达 Cosmos-Reason2 等业界主流模型。该模型已在 16 项具身开源评测榜单中刷新纪录(SOTA)。

当前,机器人技术正成为全球科技竞争与产业转型的关键赛道,人形机器人等前沿方向更被视为重塑制造业与服务行业生态的重要驱动。阿里巴巴此次发布具备 “思考大脑” 属性的基础模型,不仅体现其在 AI 核心技术领域的持续投入,也展现出推动技术标准化与产业落地的明确路径。
时空记忆与推理能力突破
RynnBrain 的核心技术突破在于首次为机器人系统集成了时空记忆与空间推理能力。通过将这两项关键能力植入模型架构,机器人得以在执行多任务时保持工作状态的连续性与一致性。
在具体应用中,搭载该模型的机器人若在执行任务 A 时被中断并转向任务 B,能够准确记忆任务 A 的时空节点与执行进度,在任务 B 完成后自主恢复此前中断的工作流程。
该模型融合了环境认知、精准定位、逻辑推理与任务规划等多维能力,并展现出较强的可扩展性。基于 RynnBrain 基础框架,开发者仅需使用数百条数据进行微调,即可高效训练出适用于导航、规划与动作控制等不同场景的专用模型。
全系列开源策略
达摩院此次开源了 RynnBrain 系列的全部七个模型,涵盖从 20 亿参数版本到 30B 混合专家(MoE)架构等多种规格。该系列基于 Qwen3-VL 视觉语言模型训练,已在 Hugging Face 与 GitHub 等平台开放获取。
其中,业界首个采用 MoE 架构的 30B 具身模型,旨在提升机器人动作的流畅性与响应速度。为规范评估标准,达摩院同步发布了全新评测基准 RynnBrain-Bench,专注于时空细粒度任务评测,填补了当前行业在该领域的评估空白。
达摩院具身智能实验室负责人赵德丽表示:
“RynnBrain 首次实现了大脑对物理世界的深度理解与可靠规划,为大小脑分层架构下的通用具身智能迈出关键一步。我们期待它加速 AI 从数字世界走向真实物理场景的落地进程。”
具身智能布局加速产业化
中国科技企业在人工智能领域持续加大开源投入,形成以开放协作为特点的技术发展路径。在具身智能等前沿方向,开源策略有助于汇聚全球开发者资源,加速技术迭代与生态构建。
机器人技术被视为推动产业升级的关键领域。政策层面已明确将包括人形机器人在内的智能机器人作为重点发展方向,以期通过技术创新重塑制造业与服务业的运营模式。
达摩院在该领域持续推进技术开放,已先后开源融合世界模型与视觉语言模型的 WorldVLA、环境理解模型 RynnEC 等多款具身智能模型,并发布了业界首个机器人上下文协议 RynnRCP,致力于构建可部署、可扩展且具备持续进化能力的具身智能系统。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
