DS V4、效率提升、算力爆发
聊聊DeepSeek V4
先看看 V4 到底干了什么。这货这次一口气掏出了两个版本:V4‑Pro和 V4‑Flash。参数说法不一,说是满血版能干到1.5 万亿参数,比前代翻倍还多。但真正让人血压升高的不是参数,是价格。官方公布 Flash 版的输出价格是每百万 token 0.28 美元。
对比一下你就知道这个数字有多离谱:OpenAI 那边随便一个模型的定价都是 15 美元起步。V4‑Flash 直接把友商的价格剁掉了 99% 以上。一百万个 token—— 理论上能处理完几十万字的材料 —— 就两块钱人民币。花两块钱让 AI 帮你读完一本书然后给你写一份详细报告,这在一年前是科幻片,在两年前更是天方夜谭。
那问题来了,便宜 成这样,算力总需求到底会变多还是变少?
答案说出来你可能不信:不仅不会减少,反而会炸裂式暴增 。先把 逻辑理清楚。
效率提升这件事,从来就不是用来 “省东西” 的,而是用来解锁新场景的。有一个特别经典的经济学概念叫杰文斯悖论。19 世纪的时候,英国人发明了更高效的蒸汽机,烧同样多的煤能产出更多的动力。当时大家伙儿的脑回路也是 ——“这下煤炭消耗量该下降了吧?” 结果呢?蒸汽机效率提升之后,英国的煤炭消耗总量反而急剧增长。
为啥?因为动力成本下降了,工厂用得起蒸汽机了,火车跑得起了,新产业出现了。总盘子被撑大了,所谓的 “节约” 在巨大的新增需求 面前根本不值一提。
你看今天AI 行业的真实数据就知道了。咱们国家截至今年 3 月份的日均 token 调用量,已经突破了 140 万亿。而在 2024 年初,这个数字还只有 1000 亿左右。短短两年多,暴涨了上千倍。
也就是说,降价 没有抑制算力需求,反而让调用量像脱缰野马一样狂奔。而且这轮爆发还远没到头,摩根大通的预测是到 2030 年,中国的 AI 推理 token 消耗量还要再涨 370 倍。
顺着这个逻辑往下捋。
V4 把价格打到脚踝斩的水平,真正的杀伤力不是 “让原来的用户更省钱”,而是把一大批之前压根用不起、或者不敢尝试的用户全给拉进了场。以前的 AI,能干的事儿是真多,但那个价格标签就像夜店的 VIP 区一样 ——“仅限精英玩家”。现在好了,地板价了,中小企业、个体开发者、各种垂直场景,全都可以毫无负担地冲进来。
场景已经从 “能做什么” 变成了为什么不试试。这跟当年云计算的故事一模一样。AWS 把云计算价格一降再降,结果呢?云服务用量 百倍千倍地往上翻,总的支出不减反增。每个新开张的创业公司、每个深夜在云端跑模型的大学生、每个想要做点 AI 小产品的程序员,都在贡献新的算力需求。AI 客服、代码生成、科研计算、工业设计、政务办公、金融风控…… 这些场景数量正在从百级疯狂地向万级扩张。每一张新面孔进来,都会拉动一批新的算力需求,这才是总盘子的真实来源。
你可以这么理解这个逻辑链条 :效率提升 = 成本下降 → 成本下降 = 应用爆发 → 应用爆发 = 总量需求爆炸。V4 根本不是什么 “切饼的刀”,它是实实在在把饼做大做厚的工具。它每降低一分钱的成本,就等于往大饼上刷了一层新的奶油,等着更多人来咬一口。
再说说我的思考 。
你有没有发现,这和人类历史上几乎所有技术革命的底层逻辑都一模一样 ——效率越高 , 需求越大 。算力需求不是算力消耗的函数,而是应用场景的函数 。
这里还有一层被很多人忽略的东西:算力不会凭空变出来,但效率提升会让算力变得更 “好用”。当 token 便宜到几乎不花钱的时候,试错成本就会无限趋近于零。一个开发者可以随手用 AI 跑几十种方案去解决一个问题,反正才几块钱;一家公司可以放心地把 AI 塞进所有业务流程,反正比养一个实习生还便宜。这种试错成本的消失,带来的 创新加速和需求放大,这才是最恐怖的地方。
还有一点就是,很多人在这场算力通胀里只看到了需求爆炸的表面,却忽略了做饼的工具本身也在快速迭代。V4 之后,还有 V5,还有 V6,还会有更高效架构 和更低廉成本。这意味着这场算力盛宴远远没到顶点。
历史告诉我们,每当一项核心技术的成本出现 数量级下降,它终将一步步蜕变为像水电煤一样的基础设施,彻底渗透进社会经济的毛细血管。而 DeepSeek V4,正在以那个让人瞠目结舌的0.28 美元 / 百万 token,在 AI 普及的道路上狠狠踩了一脚油门。这不是在切蛋糕,这是在大家面前放了一块无限大的蛋糕胚,然后当了一台效率超群的烤箱 —— 只等大家往里面加料了。
看懂这层底层逻辑,未来的方向与打法,自然豁然开朗。
发布于 广东
