通义实验室 26-04-22 21:04
微博认证:通义大模型官方微博

开源!Qwen3.6-27B:无需MoE路由,旗舰级编程能力

继 Qwen3.6-Plus 和 Qwen3.6-35B-A3B 之后,大家期待的270亿稠密规格来了✨ Qwen3.6-27B 开源发布
🔹 270亿稠密参数,无需MoE路由,部署门槛直降
🔹 编程能力全面超越前代Qwen3.5-397B-A17B MoE旗舰模型,小身材大能量
🔹 原生多模态+长上下文,图文推理&复杂任务轻松应对
🔹 无缝集成主流编程助手:OpenClaw / Claude Code / Qwen Code

仅270亿参数,在 SWE-bench Verified、Terminal-Bench 2.0 等核心编程基准上全面超越前代397B MoE旗舰。SWE-bench Verified 77.2,SWE-bench Pro 53.5、Terminal-Bench 2.0 59.3、SkillsBench 48.2、推理任务 GPQA Diamond 87.8,深度思考能力可与超大参数模型相媲美(详细分数对比见图3)。

Qwen3.6-27B 原生支持多模态,支持视觉语言思考与非思考模式。它能够处理图像、视频与文本的多模态理解,支持视觉推理、文档理解和视觉问答等任务(详细分数对比见图4)。

🔗 即刻体验:
开源权重:Hugging Face / ModelScope
API调用:阿里云百炼,兼容 OpenAI / Anthropic 协议
即时对话:Qwen Studio
#Qwen##通义实验室#

发布于 浙江