DeepSeek-V4上线:百万上下文+1.6万亿参数,华为昇腾全面换芯,产业链这波谁最赚?
刚刚,AI圈迎来真正的重磅消息。
DeepSeek官网上线V4接口文档,两大版本同步登场:DeepSeek-V4-Pro总参数1.6万亿、激活参数490亿;DeepSeek-V4-Flash总参数2840亿、激活参数130亿。两者均原生支持100万token上下文,且开源模型性能首次比肩世界顶级闭源AI。
按官方测试数据,V4-Pro在数学、STEM及编程竞赛中全面超越此前所有开源模型,Agent能力逼近Anthropic Opus 4.6。而堪称经济学奇迹的是:Flash版每百万token仅需0.2元(缓存命中),这意味着任何开发者,都能以最底层的成本,调用顶级开源MoE架构大模型。
百万token从此标配:1/10成本重构长上下文推理
V4最震撼的突破来自技术而非单纯参数。
官方在1M上下文环境下实测:V4-Pro单token推理FLOPs仅为V3.2的27%,KV Cache仅10%。V4-Flash更极致,两项分别压缩至10%与7%。换句话说,V4上下文长度理论放大了近8倍,单token算力需求反而断崖式下降。
DeepSeek官方表态:“从现在开始,1M上下文将是DeepSeek所有官方服务的标配。”一年前,百万上下文还是Gemini独占王牌,如今直接被DeepSeek打成了水电煤。
资本市场更为关注的是成本曲线。V4-Pro每百万token输出24元,V4-Flash仅2元。对比同级别闭源模型GPT-4、Claude Opus动辄数十美金的定价,DeepSeek再次祭出性价比屠夫的传统打法。
华为换芯:国产算力生态的分水岭
此次官宣背后,一个真正影响产业链格局的信号已经明牌:DeepSeek V4全面转向华为昇腾芯片。
在此前的适配中,DeepSeek放弃优先适配英伟达的传统路径,选择完全运行于华为昇腾950PR之上。第三方评估显示,昇腾950PR单卡推理性能达到英伟达特供版H20的2.87倍,华为CANN框架超95%兼容CUDA代码。
不过,这次官宣也出现了微妙变化。
官方确认,下半年支持华为算力的表述,较此前全盘切换预期有所缓和,说明短期内英伟达与华为或将双线并行。但大方向已定——阿里、字节、腾讯,已经提前向华为下单数十万颗昇腾芯片以应对V4推理需求,甚至带动芯片价格短期上涨约20%。
V4换芯,不仅是一个大模型的决策,更是国产AI算力从被动替代转向主动占位的战略信号。
#DeepSeek-V4 #华为昇腾 #算力产业链 #
