news 2026/1/22 5:26:34

国内首次开源灵巧操作数据集!填补具身智能数据空白!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
国内首次开源灵巧操作数据集!填补具身智能数据空白!

如果你觉得现在的机器人已经很聪明,那你大概率还没见过它们“拿纸杯”、“拆纸箱”时手忙脚乱的样子。在仿真环境里,机器人抓什么都稳;可一到真实世界,纸杯一捏就扁、快递一夹就滑,仿佛一夜回到解放前。

问题出在哪?一句话:它们只会“看”,不会“摸”。

而现在,这块短板终于有人补上了。

近日,乐聚机器人正式开源了国内首个面向真实作业场景的人形机器人灵巧操作真机数据集 —— LET 数据集,首批 800 条高质量多模态操作数据已经上线乐聚 OpenLET 社区,向行业开发者、科研团队全面开放。

这不是普通意义上的“再来一个数据集”,而是一次具身智能数据体系的范式升级。

为什么「灵巧操作数据」是具身智能的最后一公里?

过去几年,具身智能属实爆火!同时也呈现出一种表面繁荣与实际落地脱节的矛盾:在大模型驱动下,感知和决策能力显著提升,但物理世界的稳定执行仍面临严峻挑战,导致“动作虚浮”。这一现象源于技术、生态与现实的多重约束。

你可以看到一堆工作在做三维感知、世界建模、语言导航,但一旦涉及真实操作,场面就变成了:

  • 看得懂物体✅

  • 说得出任务✅

  • 一上手就翻车❌

本质上有一个很重要的原因:我们极度缺少真实世界的“触觉 + 力觉 + 连续控制”数据。

传统机器人数据集大多停留在三个维度:

维度

传统数据集

视觉

RGB / RGB-D

动作

离散关键帧

触觉

基本为零

这就像让一个人只靠“看视频”学做精细装配,不让他亲手摸螺丝。

结果可想而知:模型上限被数据直接“封死”。

只要这一公里打不通:

  • 家庭机器人只会是“花钱买了个电子爹回家”

  • 人形机器人只会是展会/晚会吉祥物

国内首个:高质量灵巧操作 LET 数据集正式开源

这一次,乐聚机器人直接从源头动刀:从真机采集真实操作全过程数据。

灵巧操作 LET 数据集是什么?

填补高质量灵巧操作数据空白!这是国内首次开源、面向真实作业场景的人形机器人灵巧操作数据集,首批共 800 条真机高质量灵巧操作数据,覆盖:家庭、物流、日化三大核心场景,打通“视觉-力触-动作”全链路闭环。

所有数据来自乐聚新一代灵巧手的统一采集系统,有效避免了多设备差异导致的数据偏差问题。

图. 灵巧手指尖触觉&腕部六维力矩

数据维度更丰富,覆盖全链路需求

这套数据不是“视觉+动作”的老套路,而是一次真正意义上的全链路闭环。重点新增了触觉数据、六维力数据。如下表所示,包含五大核心数据维度:

数据类型

内容

触觉阵列数据

6 × 12 × 5 指尖触觉传感器采集的时序压力数据

六维力数据

三维力和力矩信息,精度达 ±0.5%

RGB-D 视觉数据

高分辨率彩色图 + 稠密深度图

同步动作信息

手部关节角度、速度等数据

多场景标注

场景类型、物体材质、操作目标等语义标签

这意味着什么?

意味着每一次“抓、捏、放、推”等动作,都被完整记录为:视觉 + 力觉 + 触觉 + 控制信号 + 语义标签的五元组。

更精细的数据质量源于硬核技术支撑

乐聚新一代灵巧手的性能已经是“工业级配置”:160–185°/s 关节速度、0.35 秒开合响应、±0.2mm 定位精度,同时搭配指尖触觉感知和实时力觉反馈(腕部六维力矩)系统,可以完整记录真实场景中的精细化操作全过程。

图. 数采系统画面

图. 家庭场景稳定抓取水果

图. 快消场景无损抓放物料

图. 快递场景高效分拣

数据驱动模型性能提升,实现从「看得见」到「操作得准」的跨越

在纸箱拆垛场景中,机器人需要:感知包裹形变、动态调节力度、实时修正姿态,而这些靠视觉?远远不够。LET 数据集的触觉阵列和六维力矩数据,让模型真正拥有了:感知物理世界状态变化的能力。

LET 数据集推动机器人从「看得见」到「操作得准」跨越:

  • 任务成功率大幅提升:机器人能实时感知判断物体形状与受力状态,动态调整抓取姿态和力度

  • 环境感知更全面:打破纯视觉局限,构建稳定的物理交互闭环

  • 研发落地门槛降低:配套的数据工具包和示例代码,覆盖从“算法研究”到“产业验证”的全链路需求

  • 模型泛化能力增强:真实数据,助力突破“仿真到现实(Sim-to-Real)”鸿沟

图. 纸箱拆垛

LET 数据集下载方式

方式一:扫码获取

方式二:官方申请

可通过官方邮箱 wangsong@lejurobot.com 直接申请获取

乐聚 OpenLET 社区:乐聚机器人 × 开放原子开源基金会

很多数据集的结局只有一个:发完论文就躺平。

而这一次,乐聚机器人选择了一条完全不同的路:打造乐聚 OpenLET 开源社区。

乐聚 OpenLET 社区定位非常清晰:

  • 以“ LET 人形机器人真机数据集”为核心资产

  • 聚焦人形机器人真实数据

  • 连接全球开发者、各大高校、科研机构、创业公司

  • 在开放原子开源基金会平台上构建合规、可持续的开源生态

这解决了国内长期存在的一个隐性痛点——“孤岛式数据集”的死亡陷阱:

  • 有数据,但没人维护

  • 有论文,但无产业复用

乐聚 OpenLET 社区的出现,本质是在给中国具身智能搭一条“可持续发展的主干道”。

总结与展望

过去我们总在谈:VLA、世界模型、大模型等前沿技术,但真正决定机器人是否能走出实验室的,还有一个关键:它到底摸不摸得准?

LET 数据集的开源,是一次罕见的、真正从工程源头解决问题的行动。它不炫技,不空谈未来,只做一件事:让机器人第一次拥有可信赖的“触感记忆”。这不仅展现了乐聚在人形机器人领域的技术硬实力,更向行业输出了标准化数据建设的实践经验。

据了解,乐聚机器人后续还将开放工业场景的灵巧操作数据,为了方便第一时间了解和下载高质量开源数据,强烈推荐大家持续关注乐聚 OpenLET 社区!

LET 数据集和乐聚 OpenLET 社区,或许是中国机器人走向实用化的关键拐点。

Amusi 期待更多厂商积极投身机器人的开源生态建设,从算法到数据、从基准到应用,形成合力,共同推动整个行业的突破。让人形机器人不再是实验室里的“高冷科技”,而是走进每一个普通家庭的“好伙伴”!

整理不易,请点赞和在看

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/13 12:59:09

FPGA应用开发和仿真【3.8】

8.8.3 调制解调仿真 仿真模拟的系统与AM仿真时类似,结构如图8-32所示。 图8-32 WBFM调制解调仿真系统结构 代码8-16是测试平台。 代码8-16 WBFM调制解调系统测试平台 图8-33所示是一段仿真波形。解调器工作建立时输出了一段不正确的波形。 图8-33 WBFM测试平台仿…

作者头像 李华
网站建设 2026/1/15 9:24:26

可视化图解算法77:零钱兑换(兑换零钱)

1.题目 描述 给定数组 coins ,coins中所有的值都为正整数且不重复。每个值代表一种面值的货币,每种面值的货币可以使用任意张,再给定一个amount,代表要找的钱数,求组成amount的最少货币数。 如果无解,请…

作者头像 李华
网站建设 2026/1/13 18:24:34

从零到AIGC产品经理,2个月上岸全攻略,小白也能学会

本文分享了一套2个月成功转行AIGC产品经理的实用指南,涵盖八个关键步骤:获取行业资讯与研报、选择细分领域并搭建知识库、系统掌握AIGC基础知识、完成实战项目、撰写融合项目经验的简历、准备面试高频问题。通过文本生成和图片生成两类实战项目&#xff…

作者头像 李华