看了张小珺对罗福莉的长访谈,信息密度极高,聊了将近两万字,我尽量把核心观点压缩一下。
罗福莉的身份很特殊:她曾在阿里达摩院和 DeepSeek 工作,是 DeepSeek V2 的核心作者之一,后来被小米千万年薪挖走,现在是小米大模型团队 MiMo 的负责人。这是她第一次接受深度技术访谈。
她最核心的判断是:AI 的范式已经发生了根本性的转变,从预训练主导的 Chat 时代,进入了后训练主导的 Agent 时代。这个转变的标志性事件是 OpenClaw 的出现和 Claude Opus 4.6 的发布。
关于 OpenClaw,罗福莉的体验非常有感染力。她说自己春节期间凌晨两点装上 OpenClaw,一直用到早上六点,兴奋到完全睡不着。第一天感受到的是它的「灵魂感」,产品设计的温度和情商超出预期。第二天发现它能帮她完成日常生活和工作中以前做不了的事。第三天,她把研究任务交给它,一两个小时就做出了她以为要花很久的 User Agent 构建。三天之内,她对这个框架的认知被彻底刷新了。
她对 OpenClaw 的技术判断很有深度:它真正的价值在于,一套精心编排的 Agent 框架可以大幅弥补模型本身的短板。她把自己的 MiMo 模型接进 OpenClaw 之后,发现一个中层模型借助好的框架,在 85% 的任务上就能达到接近 Claude Sonnet 的水准。甚至一个 3B 的端侧小模型,在这套框架下也能做出超乎想象的事情。这让她第一次感受到:Agent 框架和模型能力必须同步进化,互相推动。
回到小米团队后,她做了一件很猛的事:要求所有人必须用 OpenClaw,如果第二天对话次数不超过 100 轮就辞职。当然她说自己不会真的考核,只是想传递一种态度。结果团队被彻底点燃了,近 100 个人在飞书群里疯狂探索,10 分钟不看就 999+ 消息。群体智能的爆发让他们三四周做完了以前三四十周的研究量。
关于大模型竞争的格局,她给出了几个关键判断。第一,Anthropic 的路径是正确的,这已经是行业共识。第二,国内团队在预训练上的代差基本消除了,大家现在站在同一条起跑线上。第三,1T 参数规模的基座模型是做到接近 Claude Opus 4.6 水平的入场券。第四,接下来的核心赛点是在 Agent 场景下怎么做好强化学习的 scaling。
在算力分配上,她透露了一个很有意思的数据:过去 Chat 时代,研究、预训练、后训练的用卡比例大约是 3:5:1,现在合理的比例变成了 3:1:1。预训练和后训练的算力投入已经持平,顶尖团队应该都是 1:1 了。这个变化本身就说明了范式转移的剧烈程度。
关于 MiMo 的技术路线,她解释了为什么选择 MTP(多词元预测)而非 MLA(多头潜在注意力)。MLA 在 Chat 时代确实是非常优秀的结构,但它把计算和访存的比例已经优化到了极致临界点,反而没有留下灵活调整的空间。而 MiMo 采用的 Hybrid Attention 加 MTP 的组合,天然适合 Agent 场景:长上下文成本低、推理速度快、架构有弹性。她说这个选择当时有一定偶然性,但回头看恰好完美适配了 Agent 时代的需求。
在组织管理上,罗福莉的做法非常另类。MiMo 团队大约 100 人,但没有职级、没有小组划分、没有 deadline。训练 1T 模型的核心团队只有几个人。她认为平权有利于创新,任何层级都是规范和约束,而规范和约束本身会压制创造力。她招人更看重好奇心和热爱,甚至开始倾向招大二大三的本科生,因为他们的想象力没有被禁锢。她说环境比经验更重要,团队成员之间像「互相蒸馏」一样快速成长。
她对 AGI 的时间表也很激进:认为目前已经走到 20%,今年年底能到 60% 到 70%,两年内应该能实现。她说 AI 先会颠覆工作模式,然后才是生活模式,后者需要等机器人技术跟上。
最后一个让人印象深刻的判断:她说自己以前认为训模型这种工作足够有创造力,不会被 Skill 化和 Workflow 化。但现在发现,AI 竟然也能做到。那它能不能自己训出更强的模型?自己左脚踩右脚就提升了?她说这是一两年内会发生的事情。这句话听起来很平静,但仔细想想,其实相当震撼。
#How I AI##科技先锋官#
