没想到 2026 刚开年就爆出了一匹黑马!
出自量化私募巨头九坤投资(UBIQUANT)旗下的 IQuest Lab 放出了一个开源编码模型: IQuest-Coder-V1。这个仅仅 40B 参数的模型,在 SWE-Bench Verified 上跑到了 81.4%,LiveCodeBench v6 拿下 81.1%,BigCodeBench 也有 49.9%。超过了 Claude Opus 4.5 和 GPT-5.2!
模型有三个版本:Instruct 版适合日常写代码,Thinking 版专攻复杂推理和算法题,Loop 版则用了循环 Transformer 架构,在性能和部署成本之间实现平衡。全系列都支持 128K 上下文。
它的训练方法比较特别,传统代码模型基本都是拿 GitHub 上的静态代码快照进行训练,但 IQuest 用了一种叫 “Code-Flow Training” 的方式,让模型去学习代码的演进过程,包括 commit 历史、重构轨迹、项目迭代的规律。通俗来说,不是教它 “好代码长什么样”,而是教它“好代码是怎么写出来的”。这个思路确实比较新颖,也符合实际开发的逻辑。
为什么和 DeepSeek 一样,又是一家量化公司?细想,可能量化交易本质是在大量数据里找规律、理解系统演化,这和模型训练相通。九坤 2025 年前三季度管理规模 700-800 亿,平均收益 24%,有钱有人有算力,或许这也不算太跨界!
根据目前的一些测试反馈,它在纯算法设计上表现不错,但对于最新的 API 框架、大型项目的跨文件重构,还是有短板。
模型已经在 Hugging Face 上开源,大家有兴趣可以试试。
至于会不会是另一个 DeepSeek 时刻?欢迎大家一起测试、讨论!
Higgingface: huggingface.co/IQuestLab
模型官网iquestlab.github.io
技术报告:github.com/IQuestLab/IQuest-Coder-V1/blob/main/papers/IQuest_Coder_Technical_Report.pdf
#AI技术[超话]##AI编程##IQuest-Coder##科技先锋官##AI创造营#
