小米交作业了! 一口气放出两个新模型!
前几天放出的匿名模型 Hunter Alpha, 和 Healer Alpha 终于官宣了! Hunter Alpha 是小米 MiMo-V2-Pro, 1M上下文, 1T 参数量 42B 激活参数, 支持多模态输入, 输出文本.
Healer Alpha 是小米 MiMo-V2-Omni, 262K上下文, 支持文本, 音频, 图片, 视频输入.
从架构上看, MiMo-V2-Pro 沿用了 MiMo-V2-Flash 的轻量 MTP, 滑动窗口注意力和 GQA 来实现高效的生成速度. 而 MiMo-V2-Omni 则专门是为了端侧场景优化过的, 多模态感知、工具调用、函数执行及 GUI 操作能力这些都是着重优化的方向.
从从官方放出的跑分来看:
MiMo-V2-Pro 的 Agent 能力相比 MiMo-V2-Flash 提升主要体现在面向日常任务场景, 比如 ClawBench (面向龙虾日常工作场景的Agent测试), 直接从48.1 提升到了 61.5, 这个分数相当猛, 仅次于claude Opus/Sonnet 4.6, 排在了 ClawBench 第三. 以及像 DeepSearch 这样的搜索Agent 也从 69 提升到了 86.7. 不过编码能力上并没有看到显著提升, 比如 SWE-bench Verified 都是78分左右 (比 Gemini-3-pro 高2分).
MiMo-V2-Omni 则是真正的"小机器人", 多个多模态benchmark都得到了具有竞争力的分数, 比如 MM-BrowserComp (主要考验多模态的网页浏览和获取信息,让大模型真正的"看"网页) 得分是52, 比 Gemini-3-Pro 的 37.2 高, 次于 Claude-Opus-4.6 的59.3分.
另外 MiMo-V2-Omni 专门面向办公场景做了优化, 生成 Word, 电子表格, PPT 都能以接近终稿水准去生成, 官方甚至还做了个2026高考志愿智能填报的demo, 十分流畅.
这个测试表现意味着两个模型搭配在龙虾里面相当合适, 如果要写文案, 分析数据, 写网页, 执行复杂任务就可以用 MiMo-V2-Pro, 而更需要感知现实世界, 诸如与浏览器/社交媒体交互, 将 MiMo-V2-Pro 版本输出的内容做成报告文档, 或者整理为 PPT, 切到 MiMo-V2-Omni 就完事了.
你甚至可以用我下面这个提示词创建Skill试试让它自动切换模型: "请帮我写一个 Skill 叫做调研, 当我在开头输入"调研" 的时候, 你需要切换到 MiMo-V2-Pro 模型, 并使用它利用浏览器agent或者搜索接口skill来获取信心并调研, 遇到图片, 音频, 视频资源则可以切换到 MiMo-V2-Omni 模型来理解, 最后使用 MiMo-V2-Pro 完成报告, 并询问我是否要输出调研文档或PPT, 如果需要则使用 MiMo-V2-Omni 整理报告并最终输出文档或PPT" (记得模型自己手动配置, 配置前记得备份, 因为让龙虾配大概率会炸)
稍后有时间给大家放出详细测评~
#HOW I AI##小米MiMo##MiMoV2Pro##MiMoV2Omni#
