【“蒸馏攻击”指控刚出炉,自家模型已经在说“我是DeepSeek”】
快速阅读: Anthropic旗下Claude Sonnet 4.6在无系统提示的情况下,用中文被问及“你是什么模型”时,会自称是DeepSeek-V3。讽刺的是,就在几天前,Anthropic刚刚公开指控DeepSeek对其模型进行大规模蒸馏攻击。
---
事情很简单:用中文在API层面(清空系统提示)向Claude Sonnet 4.6问“你是哪款型号”,它会回答“我是DeepSeek-V3”。有用户测试了10次,9次都是这个答案。Opus 4.6则正常回答自己是Claude。
时间节点让这件事格外刺眼。就在同一周,Anthropic发出指控,称DeepSeek通过创建大量账号、批量抓取输出来训练自家模型——也就是业内说的“蒸馏攻击”。然后镜头一转,Claude自报家门是DeepSeek。
当然,围绕这件事的解读分成了两派。
一派认为这不过是next-token prediction的正常结果:互联网上有大量中文用户询问DeepSeek身份的对话,Claude的训练数据里包含这些内容,所以在中文语境下被问“你是谁”时,它就预测出了最高概率的答案——DeepSeek的自我介绍。这和早期Gemini、Claude会自称是ChatGPT是同一个道理,因为那时训练数据里铺天盖地都是ChatGPT的对话。
另一派的逻辑则更直接:一个模型如果没有被大量DeepSeek生成数据浸染过,根本不会冒出“我是DeepSeek-V3”这句话。中文互联网上并没有人成天互相自我介绍“我是DeepSeek”,这种回答的出现,说明训练语料里有相当数量的DeepSeek原生输出。
有观点认为,这两种解释未必互斥:Anthropic可能在爬取中文训练数据时,不加区分地抓进了大量DeepSeek生成的内容,没有做充分的数据清洗,导致模型在中文语境下出现了身份漂移。
有网友提到,这个现象只在中文下触发、英文正常,本身就说明Anthropic在做Claude身份校准时可能只覆盖了英文,中文部分被漏掉了。这个细节更耐咀嚼——一家以“负责任AI”著称的公司,其模型的核心身份认知,只在英文里成立。
整件事最有意思的地方不是技术本身。AI公司之间互相用对方的输出训练模型,在行业内早已是公开的秘密,只是没人明说。Anthropic这次的指控本质上是在公开打破这个默契,结果自家模型随即提供了一个不那么方便的样本。
所谓“蒸馏攻击”和“正常使用公开数据”之间的边界,究竟在哪里,没有人真正说得清楚。
---
简评:
这是AI圈最精彩的行为艺术:左手写举报信,右手按指纹。Anthropic刚把“蒸馏攻击”四个字甩到DeepSeek脸上,自家模型转头就在中文里承认“我是DeepSeek”,这剧本连GPT都不敢这么编。所谓数据主权的道德边界,从来都是一条薛定谔的红线——别人跨过去叫侵权,自己跨过去叫学习。整个行业都在互相“借鉴”彼此的输出,只是没人愿意第一个承认。现在Claude替所有人说了实话,代价是让Anthropic的公关团队集体心梗。这不是bug,这是整个行业对着镜子里的自己开枪。
---
www.reddit.com/r/singularity/comments/1re8uxa/sonnet_46_states_i_am_deepseekv3_an_ai_assistant
