#小米MiMo大模型首次推出TokenPlan#
昨天小米MiMo V2 Pro无限循环的原因找到了。。
包括这两天b站和知乎有些博主测出来的一个复杂逻辑题会把MiMo卡死,以及V2 Pro会在一些逻辑场景上测出来还不如Omni,大抵都是这个原因。
以我的配置为例,我是用CC Switch把MiMo的API接进Claude Code(命令行版)
但是CC Switch的thinking-optimizer,也就是思考模块,它内部的known-models是不包括MiMo V2 Pro的(还没更新进已知列表)
也就是说,在处理用户指令的时候,CC是不给MiMo这个API注入thinking请求的
要知道V2 Pro是一个1T总参数,42B激活量的模型,他原生设计的前置思考深度是很强的。。但是不注入thinking请求,相当于这么大激活量一个模型要边跑边想,把前置的深度思考完全阉割掉了。。。
那表现当然不如同样不开启思考,但因为体量更小所以思考更简单的Omni了[允悲][允悲][允悲]
图3和图4对比就很明显,这是我和MiMo讨论,MiMo自己给自己出的逻辑测试题。
同样的问题,在网页端原生V2 Pro,默认开启深度思考,用时20秒,给出正确答案。
在Claude Code里提问,一秒激活文字生成,然后一个方案不对,再试另一版,再不对,再试一版,每次都阉割掉思考,于是生成一段又臭又长的循环草稿。。。🤣
这个问题是工具层面的未适配,除了等供应商把known-models列表做更新,否则无解[二哈][二哈]
等MiMo能正常表现深度思考,才能公允评估它的表现。
#小米##小米推出token套餐#
发布于 安徽
