巨人天成
产经 科技 企业 数据 峰会 快讯 商业

戴盟携手全球顶尖机构,发布百万小时级触觉具身智能数据集Daimon-Infinity

2026-04-21来源:快讯编辑:瑞雪

当行业还在为具身智能的模型架构争论不休时,一场关于数据基础设施的竞争已悄然拉开帷幕。由戴盟机器人牵头,联合Google DeepMind、中国移动、新加坡国立大学、香港科技大学、北京大学、清华大学等机构共同打造的全球最大规模含触觉全模态物理世界数据集Daimon-Infinity正式发布,标志着具身智能产业从技术验证阶段迈向基础设施建设的全新里程碑。

与传统数据集不同,Daimon-Infinity规划年内实现数百万小时级数据规模,覆盖家庭、工业、户外、公共服务等20余类真实场景。其首期开源的10000小时高质量数据已引发行业震动,上线阿里魔搭社区当日即获首页推荐。这套数据集突破性地融合触觉、视觉、动作轨迹、语音指令等12种模态信息,其中高密度触觉数据的引入尤为引人注目——通过覆盖接触形变、滑移趋势、材质特征等十余种物理信号,首次实现了对复杂物理交互过程的完整还原。

触觉模态的突破性应用,源于戴盟团队在视触觉融合领域的技术积淀。这个源自香港科技大学的研发团队,通过将复杂触觉信息转化为图像化表达,使模型对物理交互的理解效率提升10倍。实验数据显示,使用Daimon-Infinity预训练的具身模型,在精细操作任务中仅需传统数据量1/10即可达到更优效果。这种质变式提升,印证了高质量数据对模型训练的杠杆效应。

数据采集模式的革新同样值得关注。区别于传统封闭式数采厂的局限,戴盟构建的全球最大外发式采集网络,通过轻量化便携设备将数据采集延伸至真实生活场景。这种分布式采集模式不仅覆盖场景扩大30倍,更关键的是捕捉到了传统方法难以获取的长尾数据——那些来自真实任务、人类操作中的复杂交互样本,正是提升模型泛化能力的关键要素。

从原始数据到可用训练集的转化过程,展现了更深刻的技术壁垒。戴盟与阿里云联合开发的全链路数据处理引擎,解决了多模态数据在时空轴上的精准对齐难题。这套系统能将接触状态变化、操作过程等物理信息,转化为模型可学习的结构化样本,使每帧数据都承载完整的物理交互逻辑。这种处理能力构成了数据集的核心竞争力,形成了"采集-处理-训练-开源"的完整闭环。

开源策略背后,是构建行业标准的深远布局。这个由产学研多方共建的数据集,本质上在重塑具身智能领域的技术协作范式。当全球顶尖机构共同使用同一套数据标准时,行业将加速形成从数据生产到模型训练的技术共识。这种基础设施级的布局,使Daimon-Infinity超越了单纯的数据产品属性,成为推动具身智能产业化的关键枢纽。

在具身智能的演进路径上,Daimon-Infinity的出现恰逢其时。当行业逐渐意识到,决定机器人能否走出实验室的,不仅是算法精度更是数据质量时,这套数据集提供的不仅是训练素材,更是一套完整的物理世界认知框架。随着更多机构参与数据共建与模型迭代,一个连接真实世界与数字智能的生态系统正在成型,这或许正是打开具身智能大规模落地之门的钥匙。