麻省理工科技评论 25-11-05 20:44
微博认证:《麻省理工科技评论》杂志官方微博

【27万小时的真实数据,终于验证了机器人领域的Scaling Law?】

去年年底 Physical Intelligence 发布机器人基础模型 π0 时,其团队成员将其比作“机器人领域的 GPT-1”。就像 #OpenAI# 在 2018 年推出第一代语言模型时开启了一个时代,π0 预示着机器人智能也许会走上类似的路:模型越大、数据越多,能力就越强。但在那个时候,这更多还只是个愿景。机器人领域的 Scaling Law 始终没有被明确建立。

2025 年 11 月 4 日,由前 Google DeepMind 高级研究员 Pete Florence 创立的初创公司 Generalist AI 为这一问题给出了迄今为止最有力的答案。该公司发布的 GEN-0 模型不仅展示了机器人基础模型的扩展能力,更重要的是,首次在机器人领域观察到了一个此前只在语言模型训练中出现的关键现象:模型僵化(ossification)。这一发现表明,机器人领域的智能确实存在可量化的扩展定律,但其运作方式比我们想象的更加复杂。

在#计算机视觉# 和自然语言处理领域,scaling laws 已经成为一个被广泛接受的现象。但在机器人领域,这样的规律一直未能建立,主要原因是缺乏足够规模的高质量数据,以及足够大的模型来验证这种关系。

尽管 MIT 和#慕尼黑工业大学# 的研究人员在 2024 年通过对 327 篇论文的元分析发现机器人基础模型确实存在 scaling laws,但这些研究都是基于相对较小规模的模型和数据集。如果我们将模型规模推向数十亿参数,将训练数据推向数十万小时时,会发生什么?

戳链接查看详情:http://t.cn/AXAnJPW4