#具身智能##人类数据#
还得是这届00后,强得可怕!一出手,具身智能就被“整顿”得底朝天。
当别人还在Sim2Real打转时,这支00后带队的灵初智能,已经开始用近10万小时人类数据暴力拆解。
这个数字就是放到整个行业里看,也是遥遥领先。
毕竟目前人类操作数据集大多还都集中在几千到几万小时量级,最大的也不过是英伟达的EgoScale,包含2万小时人类第一视角视频数据。
灵初这次直接上了个新台阶,10万+数据,其中1000小时还开源。
而且发布形式也够潮——直播show time~
AI博主弗兰克和灵初智能的00后联合创始人陈源培,直接手把手给你剖析的那种。(techblog指路:http://t.cn/AXMiRMpU)
言而总之,整场直播我们复盘下来,就讲两件事:给具身智能喂什么吃、让具身智能长什么样的脑子。
说人话就是,灵初给的,是一条与众不同的务实路径——
不整虚的,直接对齐人类数据,再用Psi-R2和Psi-W0双系统架构平稳落地具体场景。
结果也很直观,灵初Psi-R2迅速登顶MolmoSpace榜单。
MolmoSpace由美国艾伦人工智能研究所(AllenAI)发起,是全球具身智能领域权威基准评测平台,NVIDIA、PI等全球顶尖团队均参与本次评测。
而灵初Psi-R2在评测中一举超越PI、DreamZero等国际知名模型,表现也显著优于其他基线模型,妥妥的行业第一梯队。
在成功率这块,也比同类VLA模型要高出近10倍。
情况就是这么个情况,灵初一来就整了个大活,具身智能终于迎来首个直接能用的大规模人类手部操作全模态数据集。
下面就让我们回到直播间现场,一一复盘拆解。
http://t.cn/AXMiRn4O
