智谱刚刚发布 GLM-4.6 ,支持寒武纪和摩尔线程。
这是故意等 DeepSeek V3.2先发布,然后与其 PK 跑分[允悲]
如图所示,绝大部分跑分都超越了DeepSeek V3.2。。。
作为当年百模大战之后中幸存下来的极少数基座大模型厂商,这成绩相当可以!
作为GLM系列的最新版本,GLM-4.6是其最强的代码Coding模型(较GLM-4.5提升27%)。在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面实现全面提升。
如下:
高级编码能力:在公开基准与真实编程任务中,GLM-4.6的代码能力对齐Claude Sonnet 4,是国内已知的最好的Coding模型。
上下文长度:上下文窗口由128K→200K,适应更长的代码和智能体任务。
推理能力:推理能力提升,并支持在推理过程中调用工具。
搜索能力:增强模型的工具调用和搜索智能体,在智能体框架中表现更好。
写作能力:在文风、可读性与角色扮演场景中更符合人类偏好。
适配寒武纪、摩尔线程芯片
GLM-4.6已在寒武纪领先的国产芯片上实现FP8+Int4混合量化部署,这是首次在国产芯片投产的FP8+Int4模型芯片一体解决方案,在保持精度不变的前提下,大幅降低推理成本,为国产芯片在大模型本地化运行上开创了可行路径。
基于vLLM推理框架部署,摩尔线程新一代GPU可基于原生FP8精度稳定运行GLM-4.6,充分印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的强大优势。
GLM-4.6和寒武纪、摩尔线程国产芯片的组合,即将通过智谱MaaS平台正式面向大众和企业提供服务。
未来,国产原创GLM大模型与国产芯片将联合推动在模型训练和推理环节的性能与效率优化。
发布于 广东
