12月18日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的XR-1具身VLA模型,同步开放配套数据集RoboMIND 2.0与高保真数字资产库ArtVIP。核心技术突破在于独创UVMC多模态视动统一表征技术,搭建视觉感知与动作执行的映射桥梁,让机器人能将画面转化为“条件反射式”精准动作,破解“看得懂却做不好”的行业痛点。
XR-1以跨数据源学习、跨模态对齐、跨本体控制为三大支柱,兼容真机数据与海量人类第一视角视频,可适配6种以上不同构型机器人。其首创“多模态预训练-跨本体训练-场景微调”三阶段范式,结合真虚融合数据训练,使复杂任务成功率较国际头部模型提升显著,部分高难度任务表现翻倍。该模型已在物流分拣、高危巡检等场景落地,支持机器人全自主完成多类型复杂操作,通过开源降低行业研发门槛,推动具身智能从实验室走向实用化“干活现场”。 http://t.cn/AXUR2T6e
发布于 福建
