空间智能是具身智能在现实场景落地应用的关键,而视觉维度下支撑空间智能的重要桥梁正是距离与尺度(Metric Depth)。基于这一核心需求,2026 年 1 月,团队开源了 LingBot-Depth 高精度空间感知模型,并刷新多个权威榜单,在深度精度与像素覆盖率两项核心指标上均超越业界顶级工业级深度相机。践行 2 个月前的开源承诺,近日,将模型训练所用到的深度数据集 LingBot-Depth-Dataset 正式开源。
数据集下载:
魔搭社区 ModelScope:
https://modelscope.cn/datasets/Robbyant/LingBot-Depth-Dataset
Hugging Face:
https://huggingface.co/datasets/robbyant/mdm_depth
此前,社区中一直缺少大规模真实场景拍摄的深度数据集。现有公开数据集普遍存在规模有限、真实场景覆盖不足、硬件设备单一等问题,不少数据以合成为主,与真实传感器在噪声、空洞和材质表现上存在较大差异,影响了模型在真实环境中的应用效果。
LingBot-Depth-Dataset 填补了这一领域的空白。LingBot-Depth-Dataset 是目前社区中规模最大的真实场景 RGB-D 数据集,包含 300 万对高质量样本,其中 200 万对来自真实场景采集、100 万对由渲染生成。
每条样本均包含 RGB 图像、传感器原始深度图和真值深度图,可直接用于深度估计与深度补全任务的训练和评估,总规模达 2.71TB。数据集覆盖 Orbbec 335、335L 以及 Intel RealSense D405、D415、D435、D455 共 6 款主流深度相机,将有助于提升模型在不同设备和场景下的适应能力。
期待此次开源能够为具身智能、空间感知和三维视觉等方向提供更丰富、更贴近真实应用的数据支撑。
点击下载数据集
https://modelscope.cn/datasets/Robbyant/LingBot-Depth-Dataset