在传统的人形机器人开发过程中,即便是完成端盘子、递水这类基础动作,工程师也需耗费大量精力编写复杂代码。如今,随着人形机器人动作大模型的问世,这一局面将被彻底改变。通过学习文字、视频、音频、动捕等多模态数据,机器人可直接生成对应的动作指令,训练效率得到质的飞跃。
5月9日,湖北人形机器人创新中心在光谷举办动作大模型发布暨产品技术分享会。会上,北京大学武汉人工智能研究院与北京虚拟动点科技联合发布了这项突破性成果。该模型由两大核心模块构成:MotionMaster虚拟动作生成器负责将高阶语义、视频等输入转化为虚拟动作,UniAct真机执行引擎则确保这些动作精准适配真实机器人硬件。
湖北人形机器人创新中心首席运营官刘传厚指出,动作大模型通过标准化数据处理流程,生成的虚拟动作可跨品牌通用。这一特性直击行业痛点——此前各品牌机器人数据互不兼容,导致开发成本高、周期长。新模型的推广将显著降低机器人训练门槛,加速技术从实验室向商业场景的转化。
为保障模型落地效果,湖北人形机器人创新中心构建了全链条验证体系,涵盖数据采集、场地测试、真机调试及场景应用等环节。这一举措不仅为技术迭代提供了坚实支撑,更推动湖北具身智能公共平台从建设阶段迈入高质量运营新阶段。
活动现场,潜空间与光谷东智、格蓝若、宇树、乐聚等企业签署生态合作协议。同时,湖北人形机器人创新中心与潜空间、虚拟动点、飞阔科技、青瞳视觉等达成战略合作,围绕数据服务、模型训练、场景落地及赛事运营等领域展开深度协同,共同壮大湖北具身智能产业生态圈。