
空间智能领域迎来重大突破性进展。1月27日,蚂蚁集团旗下具身智能公司灵波科技正式宣布开源高精度空间感知模型 LingBot-Depth,为智能机器人、自动驾驶等前沿应用提供革命性三维视觉解决方案。该模型基于奥比中光 Gemini330系列双目3D相机提供的芯片级原始数据,通过突破性算法显著提升环境深度感知与三维空间理解能力,在解决”看清楚”三维世界这一行业核心痛点上取得里程碑式进展。这标志着蚂蚁灵波科技继2025外滩大会后,时隔半年在具身智能技术基座方向发布的又一重量级成果。

在权威基准评测中,LingBot-Depth展现出颠覆性性能优势:在NYUv2、ETH3D等国际权威评测中,其室内场景相对误差(REL)较主流PromptDA与PriorDA模型降低超过70%,在挑战性稀疏SfM任务中RMSE误差减少约47%,全面刷新行业精度标准。(图说:在最具挑战性的稀疏深度补全任务中,LingBot-Depth整体性能显著优于现有主流模型,图中数值越低代表性能越优)
透明玻璃器皿、镜面反射、不锈钢设备等反光材质,一直是机器空间感知的”拦路虎”。传统深度相机受光学物理特性限制,在处理这类材质时往往因无法有效接收回波而导致深度图数据缺失或产生严重噪声。针对这一行业共性难题,蚂蚁灵波科技创新性地研发了”掩码深度建模”(Masked Depth Modeling,MDM)技术,并依托奥比中光Gemini330系列双目3D相机进行RGB-Depth数据采集与验证。当深度数据出现缺失或异常时,LingBot-Depth能够智能融合彩色图像中的纹理、轮廓及环境上下文信息,对缺失区域进行精准推断与补全,最终输出完整度更高、边缘更清晰的三维深度图。

值得一提的是,LingBot-Depth模型已通过奥比中光深度视觉实验室的专业认证,在精度、稳定性及复杂场景适应性方面均达到行业顶尖水平。实验数据显示,奥比中光Gemini330系列在应用LingBot-Depth后,面对透明玻璃、高反光镜面、强逆光及复杂曲面等极具挑战的光学场景时,依然能输出平滑完整且边缘锐利度超群的深度图,其效果显著优于Stereolabs推出的业界领先ZED Stereo Depth深度相机。这一突破意味着在不更换传感器硬件的前提下,LingBot-Depth可大幅提升消费级深度相机对高难物体的处理能力。(图说:[上图]搭载LingBot-Depth后,奥比中光Gemini330系列在透明及反光场景下深度图的完整性和边缘清晰度显著提升,[下图]其效果优于业界领先ZED深度相机)
LingBot-Depth的卓越性能源于海量真实场景数据的积累。灵波科技采集了约1000万份原始样本,提炼出200万组高价值深度配对数据用于模型训练,有效增强了模型在极端环境下的泛化能力。这一核心数据资产(包含2M真实世界深度数据和1M仿真数据)将于近期向社区开放,加速推动复杂场景空间感知技术的突破。据悉,蚂蚁灵波科技已与奥比中光达成战略合作,奥比中光计划基于LingBot-Depth能力推出新一代深度相机。本周蚂蚁灵波还将陆续开源多款具身智能方向模型,持续推动行业技术进步。
