-林山姆- 26-04-27 08:00
微博认证:数码博主 微博原创视频博主 头条文章作者

4月24日,中国AI公司DeepSeek发布了V4 Preview版本,包含Pro和Flash两个型号,参数规模分别为1.6万亿和2840亿,均支持100万token的超长上下文窗口。更引人注目的是,这是DeepSeek首次在华为昇腾950芯片上完成训练与推理适配。同一天,美国国务院向全球使领馆发出外交电报,无端指控DeepSeek等公司通过“蒸馏”手段窃取美国AI模型的知识产权。这背后发生的,是你来我往的技术博弈和话语权争夺,而V4系列真正锋利的地方,其实并不在于参数量,而在于效率。

Pro版在100万上下文长度下,单token推理所需算力仅为上一代V3.2的27%,KV缓存占用降至10%。Flash版则做得更加极致,算力消耗只有10%,缓存仅7%。这意味着,过去被高成本卡住的长文本AI代理类应用,几乎触到了规模化落地的地板。API定价也把这种优势直接摆在了桌面上:V4 Pro输出每百万token只需3.48美元,而Claude Opus 4.7和GPT-5.5的对应价格分别是25美元和30美元,成本差距拉到七到九倍。这已经不是同一价格带上的竞争了。

更值得留意的信号出现在芯片端。华为当天就宣布昇腾全线产品实现对V4的“Day-0适配”,也就是说,模型发布的第一时间就已经完成了硬件适配。有消息称,DeepSeek在开发阶段给了华为独家早期优化权限,而英伟达和AMD被排除在外。这是第一次有一款前沿大模型,在架构层面就是围绕非英伟达硬件来设计和优化的。芯片封锁的逻辑,在这一环上实实在在地断了。这必然会带动大量中国上下游企业跟进。

就在同一天,高盛发布研报,继续把云与数据中心列为中国互联网板块的首选子行业。背后的逻辑很清楚:token越便宜,消耗量就越大,提供这些算力的基础设施反而更受益。一场围绕极致效率与新硬件生态展开的争夺,显然才刚刚拉开序幕。

发布于 广东