【#美团首个开源大模型比肩DeepSeek#】今日,美团在官方社交媒体正式发布 LongCat-Flash-Chat,并同步开源。
LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数 560 B,激活参数 18.6B~31.3B(平均 27B),实现了计算效率与性能的双重优化。
官方称,根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat 在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。并且,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。
在通用领域知识、智能体(Agentic)工具使用、编程、指令遵循等方面,该模型的测试成绩在与DeepSeek V3.1、GPT-4.1、Kimi K2、Qwen3 MoE-2507等模型的对比中表现出色。
