西里森森 26-03-21 23:30
微博认证:AI博主

这两天AI圈有个扒皮事件太精彩了,说出来甚至到了有点荒诞的程度......

我先按时间线来跟大家讲一下这个瓜。

1
昨天,Cursor高调宣布推出了Composer 2,说这是他们的「自研模型」,性能超Claude Opus 4.6。

结果刚发出来不久,就被开发者扒出来是抄袭Kimi K2.5。
有一位叫Fynn的开发者在调试Cursor的API接口时,发现模型ID写的是 kimi-k2p5-rl-0317-s515-fast。

Fynn当时就发推调侃说,你发出来好歹改个模型ID吧。

这条推文一出,事情就收不住了。
而且接下来月之暗面预训练负责人Yulun Du的验证,让整件事没有了悬念。

他测试了Composer 2的tokenizer,也就是模型的分词方式,发现和Kimi的完全一致。
tokenizer相当于一个大模型的DNA指纹,它的设计方式是每家公司独立决定的,差异非常细微,几乎不会重合。

两个独立开发的模型,tokenizer高度重合的概率接近于零。如果两个模型的tokenizer一致,基本可以认定它们是同一个底座。
所以Yulun Du公开质疑Cursor:为何不遵守许可协议、为何没有支付授权费用?

这里和大家解释一下K2.5的协议。虽然这是一个开源模型,但是也是有协议的:年收入超过2000万美元/月(约1.67亿美元/年)的商业产品,必须在UI显著位置展示“Powered by Kimi K2.5”或类似声明,Cursor这波很明显属于被抓包了。

紧接着,Hacker News上"Cursor Composer 2 is just Kimi K2.5 with RL"迅速冲上首页。
评论区里有人补充说,Cursor Composer 1用的底层是阿里的Qwen,这次换成了Kimi,连IDE本身都是基于VSCode改的。

这家500亿美元估值的美国独角兽,技术栈里最核心的几层,都来自中国开源生态。

2
而且这件事最值得玩味的,不只是Cursor的翻车,而是Kimi这一周锦鲤般运气。

第一件事,3月16日,月之暗面在arXiv发布了一篇关于Transformer架构改进的论文,叫Attention Residuals,让AI在理解信息时,可以选择性地回头参考更早层的特征,而不是只被动叠加上一层的输出。
效果是用相同的计算资源,获得大约1.25倍的性能提升。

论文发出后,马斯克转发并评论:Impressive work from Kimi。
Andrej Karpathy也在评论区说,我们之前都没认真对待注意力就是一切这句话的含义。
一篇学术论文,同时拿到了马斯克和Karpathy的背书。

第二件事,3月17日,月之暗面创始人杨植麟作为唯一受邀在英伟达GTC 2026现场演讲的中国独立大模型创始人,在圣何塞的舞台上讲了Kimi K2.5背后的技术路线:训练效率翻倍的MuonClip优化器、推理速度提升5到6倍的长上下文架构、以及针对多智能体协作场景做的专项优化。

正是最后这个多智能体能力,让Cursor在选择编程场景底层模型时,把Kimi K2.5放在了最前面。

第三件事,就是Cursor这出戏,这已经是Kimi第三次被推到台前。
一周之内,从马斯克点赞,到杨植麟在GTC演讲,Cursor被发现使用Kimi模型,然后公开认账。

不过,对Kimi而言,被套壳又被大家发现也是一件好事,几乎可以等同于天赐流量,让它在全球舞台上完成了一次意外而完整的品牌曝光。

3
很多人可能会问,Cursor这么大的公司,为啥不自己训练模型?
原因很简单,训练一个能和GPT-5系列、Claude Opus同级别竞争的大模型,动辄需要数亿美元算力投入和数月时间。

而Kimi K2.5是开源的,许可协议允许商业使用,性能经过了多个基准测试验证,针对长文本和智能体场景还专门做了优化。

最直接的对比是价格:Kimi K2.5的API定价是每百万token 0.3美元,Anthropic的Claude Opus 4.6是5美元,差了将近17倍。
性能相差不大,成本相差17倍,对一家要服务全球2000多万开发者、同时要控制推理成本的公司来说,这个选择并不难做。

3月21日,Cursor官方承认Composer 2基于Kimi K2.5,说没有在博客里提到这一点是一个失误。
月之暗面也确认,这是通过Fireworks AI作为中间商的授权合作,是正常的商业行为。

事情就此落地,但这个事件留下的问题也很值得我们思考。

根据OpenRouter的数据,2026年2月的某一周,中国AI模型的全球调用量达到5.16万亿token,首次超过了美国的2.7万亿token,三周内增长了127%。
这是在实际使用量这个最真实的指标上,中国模型完成的一次超越。

在资本市场,中国AI公司的节奏也在提速。
MiniMax和智谱AI相继通过港交所聆讯,上市后市值分别突破2000亿港元区间。
而OpenAI、Anthropic这些估值更高的美国同行,还停留在Pre-IPO阶段,接受公开市场检验的时间表并不明朗。

Kimi 旗下 K2.5 大模型发布不到一个月,近20天的收入已经超过了2025年全年,估值从3个月前的43亿美元涨到了180亿美元。

当然,聊这件事的意思,不是说中国AI赢了,也不是说美国AI输了。

实际情况是,在AI这个领域里,技术能力、成本效率和开源生态正在重新排列所有玩家的位置。
毕竟,Cursor都能靠着自研模型冲到500亿估值,那说实话,Kimi这些中国的模型公司在这波热度之后,估值只会更高。

发布于 上海