智谱动作好快! 刚刚发布了GLM-4.7-Flash
智谱 AI 刚刚发布了 GLM-4.7-Flash 开源模型!这是一个 30B-A3B 的 MoE 架构模型,总参数量 30B,激活参数约 3B,MIT 许可证开源!
从测试来看这是个 30B 级别SOTA模型,在官方给的几个测试结果中, 分数都很高 :
- 测试中只有 LiveCodeBench V6 没有领先, 它的得分是64, 作为对比, Deepseek V3.1 的得分是61.4
- SWE-bench 59.2%,代码能力直接起飞,比 Qwen3-30B-A3B 的 22% 高出一大截
- τ²-Bench 79.5%,Agent 任务表现良好
- BrowseComp 42.8%,网页浏览理解能力也比同级别模型好
- 200K 超长上下文,使用了 MLA 注意力机制,KV-Cache 占用小
- AIME 25 91.6,数学推理接近顶尖水平 (不过现在AIME25普遍刷爆)
再来看架构:
- 64 路由专家 + 1 共享专家,每 Token 激活 4 个专家
- MLA (Multi-head Latent Attention) 注意力,内存效率高
- 支持 MTP 推测解码加速推理
我也跑了一下大象牙膏测试这个case, 从省城代码来看, 的确是30B这一个级别表现最好的, 大家可以看效果截图, 当然还是没办法跟头部商业模型或者开放权重模型对比的, 更适合本地批量任务或者清洗数据,简单脚本用.
总体来说,如果需要一个轻量但代码能力强的本地模型的话值得一试.
发布于 日本
