字节跳动Seed团队近日重磅推出全新Vision-Language-Action Model(VLA)模型GR-3,这一突破性成果在机器人操作领域展现出惊人的潜力,不仅能够精准理解包含抽象概念的语言指令,还能灵活操作柔性物体,并具备强大的任务迁移与物体泛化能力,被视为迈向通用机器人“大脑”的关键一步
传统机器人操作模型往往依赖海量机器人轨迹数据进行训练,导致在新任务中迁移成本高昂、效率低下。而GR-3的创新之处在于,仅需少量人类数据即可实现高效微调,其核心突破在于采用Mixture-of-Transformers(MoT)网络结构,将视觉-语言模块与动作生成模块整合为40亿参数的端到端模型。其中,动作生成模块通过Diffusion Transformer(DiT)结合Flow-Matching技术生成动作,并引入归一化的RMSNorm设计,显著提升了动态指令跟随能力。这一架构使GR-3能够像人类一样,直接根据摄像头画面与语言指令规划连续动作,例如在听到“收拾餐桌”后,自动完成“打包剩菜→收拾餐具→倒垃圾”的全流程操作
在训练数据层面,GR-3彻底突破了单一数据源的局限,通过三合一数据训练法实现能力跃升:首先,利用遥操作机器人收集的高质量真机数据,确保基础操作能力;其次,通过用户授权的VR设备采集人类轨迹数据,使新任务学习效率提升近一倍(450条/小时 vs 传统250条/小时);最后,融合公开可用的图文数据,让模型理解“大”“小”“左右”等抽象概念,并识别未见过物体的特征。这种多样性数据融合策略,使GR-3在未见过的物体抓取任务中成功率较基准模型提升17.8%,仅需10条人类轨迹数据即可将新物体操作成功率从60%提升至80%以上
为验证模型性能,团队在通用拾取放置、长程餐桌清理、柔性衣物操作三大任务中展开系统性测试。在通用拾取放置任务中,GR-3在训练过的场景里指令遵循率和成功率分别达98.1%和96.3%,在新环境(卧室书桌、超市柜台等)中性能几乎无衰减,且能精准处理“把雪碧旁边的可乐放进盘子”等涉及空间关系的复杂指令。长程餐桌清理任务中,GR-3可自主完成多步骤操作,平均完成度超95%,并能严格跟随分步指令,面对无效指令时准确判断不动作。柔性衣物操作测试显示,GR-3在挂衣服任务中完成度达86.7%,即使面对短袖等未见过的衣物款式或混乱摆放状态,仍能稳定完成任务
与硬件的协同创新是GR-3的另一大亮点。团队研发的通用双臂移动机器人ByteMini作为载体,配备22个全身自由度与独特手腕球角设计,结合全身运动控制(WBC)系统,实现狭小空间内的精细操作与平滑轨迹生成。例如,抓取纸杯时能自动调整力度避免捏碎,机械臂可像人类手腕般灵活转动。多摄像头布局(2个手腕摄像头看细节、头部摄像头看全局)则确保“眼观六路”的感知能力
尽管GR-3在泛化性与操作精度上已超越业界此前可测试的VLA头部模型π0,但团队仍计划通过扩大模型规模、增加训练数据量(如更多物体的视觉语言数据、复杂任务机器人数据)进一步提升泛化能力。同时,引入强化学习(RL)方法突破模仿学习局限,使机器人在遇到物体滑落等突发情况时能自主调整策略,增强抗干扰能力
字节跳动Seed团队表示,GR-3的研发旨在解决传统机器人“听不懂抽象指令”“不适应环境变化”“做不好长程任务”的三大瓶颈。未来,团队将持续探索大模型与机器人技术的深度融合,推动通用机器人“大脑”走进日常生活,成为帮助人类处理各类事务的智能助手。这一成果不仅为机器人学习领域提供了新范式,更让“机器人全能助手”的愿景更近一步
ArXiv:https://arxiv.org/abs/2507.15493
项目主页:https://seed.bytedance.com/GR3