
微新创想:蚂蚁集团旗下具身智能公司灵波科技今日宣布全面开源其具身基座模型 LingBot-VLA 的真机后训练工具链。这一举措标志着灵波科技在推动具身智能技术发展方面迈出了重要一步。开发团队可以基于这套工具链,利用自有数据将 LingBot-VLA 快速迁移到自有机器人和具体任务中。
当前,具身智能领域开源模型不断涌现,但将这些模型真正部署到自己的机器人上,仍然需要完成一系列复杂的适配工作。由于不同机器人在机械臂构型、末端执行器、传感器配置和控制接口等方面存在差异,开发团队通常需要围绕真机部署开展大量工程工作。这些工程链路往往是各团队的核心 know-how,过去鲜有完整开放。
此次开源针对真机适配过程中的核心需求,覆盖四个关键环节。首先,支持多 LeRobot 数据合并,便于整合不同来源的数据。其次,提供关节维度映射标准化的数据处理工具,提升数据处理的效率和一致性。第三,面向真机场景优化的训练配置,确保模型在实际应用中的性能。最后,配备离线评测工具和支持编译加速的真机部署模块,全面提升开发体验和部署效率。
模型同时提供含深度和不含深度两个版本,方便开发团队根据自身需求进行选择。这种灵活性使得 LingBot-VLA 能够适应更多应用场景,满足不同开发团队的技术偏好和资源条件。
作为蚂蚁灵波开源的具身基座模型,LingBot-VLA 基于 2 万小时真实机器人数据预训练,覆盖 9 种主流双臂机器人构型。该模型具备跨本体、跨任务泛化能力,能够有效应对不同机器人平台和任务场景的挑战。
在真机和仿真评测中,LingBot-VLA 均优于行业基准 π0.5,并已与乐聚、松灵、星海图等厂商完成多机型验证。这表明 LingBot-VLA 在实际应用中具有较强的适应性和可靠性,能够为开发者提供坚实的技术支持。
据悉,LingBot-VLA 仅需 150 条演示数据即可实现高质量的任务迁移。这一特性大大降低了模型训练和部署的门槛,使得更多开发者能够快速上手并应用该模型。得益于底层代码库的深度优化,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,进一步降低模型适配所需的数据和算力成本。
目前,LingBot-VLA 代码库已在 GitHub 开源,模型权重同步发布于 Hugging Face 和 ModelScope。这一系列开源举措不仅促进了技术的共享与协作,也为行业提供了更加完善的工具链支持,推动了具身智能技术的快速发展。
