是煦煦哟 26-04-23 16:28
微博认证:科技博主 超话小主持人(科技超话)

通义千问这波属于是把大模型的价格打下来了

昨天晚上阿里云把Qwen3.6-27B给开源了。

270亿参数,但你看数据:编程能力直接打平甚至超过它家前代那个3970亿参数的MoE版。这啥概念兄弟们,15倍的差距啊,27B追平370B,这属于是降维打击了吧。

说实话我第一次看到这组数字的时候,还以为哪里搞错了,反复确认了好几遍,是真的。

就,大家知道之前那种大MoE模型跑起来对硬件要求有多变态吧。你别说个人部署了,很多中小企业都得掂量掂量。但Qwen3.6-27B是稠密架构,原生多模态,单卡就能跑。能塞进消费级显卡,能在你本地搞编程智能体,能喂它看视频看图,这就完全不一样了。

然后你猜它模型文件多大?量化后大概16.8GB。

16个G。

咱就是说,这算是把之前那些动辄几百G的“巨物”给拽下了神坛。这才是开源模型该有的样子嘛,你不能只开源了个代码让大伙干瞪眼,你得让人真的跑得起来。

而且这波挺会挑时间的,卡在这个节点出,感觉像是给开发者的一个小惊喜。毕竟谁不想在本地跑一个不用联网、不用付费、编程能力还贼强的模型呢?反正我感觉,今年这Local LLM的热度是降不下来了。

比较骚的是,它还能直接塞进OpenClaw、Claude Code那些编程助手里面当大脑。相当于你本地搞了个免费的、离线的、性能能打的高配智能体。这波开源生态的福利,说实话,属于是通义团队请客了。

行了,先写到这吧,我去下载下来在本地跑跑看,体验体验这“15倍性能差”到底是不是虚的。

确实有点东西。 http://t.cn/AXx9Xui1

发布于 福建