特斯拉开源硬件,中国回应:把机器人大脑开源吧量子位
特斯拉开源硬件专利后,所有人都在等:中国公司怎么回应?
现在答案来了——跟风硬件没意思,要开源就找比硬件更值钱的东西。
4月22日,智平方发布AlphaBrain Platform开源社区。这是全球首个一站式、开箱即用的具身智能模型开源社区。
注意,这次不是单模型开源,智平方联合港科大(广州)熊辉团队直接拿出了一套“顶配全家桶”:
具身前沿技术(类脑/世界模型)
最全架构覆盖(RL/传统VLA/类脑)
最自由组合能力(跨范式即插即用)
最公平评估标准(统一Benchmark)
最广泛开发社群(汇聚全球产学研开源力量)
这些原本只存在于顶尖实验室的前沿技术,现在全部开放!任你取用!
有开发者评价:
以前开源是给你一个工具,现在开源是直接给你一个工具箱。
2023年成立的智平方,专注AGI原生的通用智能机器人,目前公司规模近300人。
因一年12次融资,该公司被外界称为全球具身智能领域融资节奏最快的独角兽。摩根士丹利也把它列为具身基础模型的代表企业。
此时拿出这样一套“工具箱”,智平方有什么考量?
过去两年,具身智能涌现了大量开源模型。但一个尴尬的现实是:开源模型很多,真正“好用”的很少。
开发者还是要面对各种问题:这个模型怎么跑起来?那个模型跟它比谁更强?我想做的创新能不能落地到真实场景?
现在,AlphaBrain Platform选择开源“让模型跑起来、比得清、落得地”的全链路能力,方便复现、方便对比、方便场景化落地。
信号已经很明确了:中国具身智能的开源战,正式进入头部玩家卡位阶段。
5大技术亮点,有3个最值得看
前面说过了,这套“顶配全家桶”集齐了业内五大核心技术。
其中最受关注的,当属世界模型、类脑模型、RL Token和持续学习算法。
它们是当前具身智能领域最火的技术路线,各有各的狠活儿。别急,咱们一个个来看。
世界模型:最火的“想象力引擎”
AlphaBrain Platform最硬核的地方,是把世界模型的能力给拉满了,带来了全球首个可插拔世界模型架构(WA)。
亮点有主要有2个:
1、原生集成NVIDIA Cosmos Policy原始权重。
这可不是挂个名头。
开发者可以直接加载NVIDIA Cosmos Predict2那个2B参数的DiT原始预训练权重,在latent space里通过视频扩散模型预测机器人动作。
说白了,就是把NVIDIA最核心的那套“动作预测”能力,原封不动地搬了过来,可训参数约1,956M,这底子打得够厚。
2、预设三大主流世界模型Backbone,自由切换。
Meta的V-JEPA 2.1(约18亿参数),视频联合嵌入预测架构;
NVIDIA自家的Cosmos Predict系列(约21亿参数)世界模型;
通义万相的Wan 2.2(约50亿参数),是这三款中体量最大的一个,主打大规模文本-视频生成。
这阵容拿出来,基本就是把全球顶尖的世界模型一网打尽了。
这三个Backbone可以在Flow-Matching解码器中进行自由切换。
啥意思?就是一个动作解码器(约1.1亿参数),喂给这三个世界模型都能用。
开发者想对比不同世界模型在同一个任务上的表现,一键切换就行了。
训练模式切换也做到了极致简化。
一条命令,就能通过统一配置入口切换训练模式,只需要简单修改配置文件即可运行。
RL Token:强化学习+VLA的黄金组合
智平方自创立起,便确定了构建物理世界大模型的核心技术方向,在行业尚未形成共识前,率先布局VLA架构。这些年对VLA的研究一直没有停下。
在面对VLA结合强化学习的研究方向时,开发者往往要面对两座大山:动辄数十亿参数带来的极低的推理效率的门槛,以及微调时极易引发的“灾难性遗忘”难题。
RL Token则是打破这一僵局的“黄金组合”,也是让大模型真正可落地的场景化利器。
智平方率先在LIBERO环境上完成了该路线的验证,并提出了一套对开发者极其友好的开源优化方案。
这套方案的核心突破在于:
1、信息瓶颈编码与VLA主体冻结
为了解决算力开销和遗忘问题,方案引入了信息瓶颈编码器与两阶段训练策略。
在RL微调阶段,庞大的VLA主体参数被完全冻结。这不仅守住了模型原有的通用能力底线(避免灾难性遗忘),更让训练的计算成本实现了断崖式下降。
2、降低RL的训练门槛
通过架构优化,系统所需训练的参数量从原本庞大的3.9B骤降至约137M(仅占VLA总参数的3.5%)。
更硬核的是,在实际的强化学习梯度更新环节,仅涉及极轻量的1.3M参数。
这意味着,开发者不需要庞大的算力集群,仅需单张普通消费级RTX 4090显卡,就能跑通VLA的强化学习后训练(Post-training)。
3、告别推翻重来,实现“稳定进化”
换句话说,广大开发者可以在不破坏模型原有能力的前提下,对特定任务进行低成本优化。
大模型终于可以像人类一样,在已有的丰富经验基础上不断精进,而不是每次遇到新场景都反复推翻重来。
这套方案证明了强化学习+VLA这对黄金组合,可以让每个行业、每个场景都用它来定制自己的“能干活的AI”。
持续学习:数据洪流下的“不会忘”工程
机器人一旦真实部署,每天都在产生新场景、新任务、新技能。
传统训练模式有个老大难问题——学新的忘旧的,也就是业内公认的“灾难性遗忘”。
要做通用智能机器人,持续学习(Continual Learning,CL)是绕不开的底层能力。
AlphaBrain Platform在这一块做了比较系统的工程化工作:把CL从“单模型上的研究玩具”推向多架构可复现的对比平台。
技术亮点主要有3个:
1、多架构横向对比
当前前沿的VLA架构——QwenGR00T、NeuroVLA、LlamaOFT、PaliGemmaOFT——都被纳入了同一套CL验证流程。
每个架构上都跑了全参与LoRA两种训练变体,形成统一基准下的横向对比,而不是只在某一个backbone上秀单点效果。
2、跨架构解耦:算法和模型互不侵入
CL算法接口和业务模型完全解耦——换backbone成本极低。


