高飞 25-12-25 09:42
微博认证:至顶科技创始人 AI博主

#模型时代# 英伟达5年后值10万亿美元吗?Groq创始人:"如果不值,我会很惊讶"

2025年圣诞前夜,英伟达宣布以200亿美元收购Groq资产,创始人Jonathan Ross将加入英伟达。不过按照英伟达的口径,官方说法是:“我们并未收购 Groq。我们只是获得了 Groq 知识产权的非独家授权,并从 Groq 团队中聘请了工程人才加入我们。我们将共同致力于提供世界领先的加速计算技术。”

不过,回看三个月前Ross在20VC的那场深度访谈,很多判断如今看来意味深长——他谈到了为什么自建芯片几乎注定失败,为什么英伟达的monopsony(买方垄断)难以打破,以及为什么自己"不会做模型"。

这期播客的信息密度很高。Ross曾在Google领导开发TPU(Tensor Processing Unit),是现代AI硬件的核心架构师之一。

对了,在播客中,他也谈到对中国AI算力成本的看法,他说其实其实成本比想象的高(比美国高,10X),Token价格低是定价策略,而不是成本优势。这个请更内行的同学评判。

一、算力需求:"如果Anthropic今天算力翻倍,一个月内收入几乎翻倍"

Ross开场就抛出一个惊人判断:当前AI公司最大的瓶颈不是模型,是算力。

1、Anthropic的rate limit(速率限制)问题

"OpenAI和Anthropic最大的抱怨是什么?Rate limits。用户拿不到足够的tokens。如果他们有更多算力,就能产出更多tokens,就能收更多钱。"

这个判断的逻辑链:算力→tokens→收入。不是"可能增加",是"几乎翻倍"。

2、速度的多巴胺经济学

Ross用消费品行业做类比:烟草利润率最高,其次是嚼烟,再是软饮料。决定利润率的核心变量是什么?成分作用于人体的速度。多巴胺循环越快,品牌黏性越强。

"每100毫秒的加速,带来约8%的转化率提升。"这是Google和Facebook早年就验证过的规律。那些说"latency无所谓,我可以等AI慢慢跑"的人,Ross直言:100% wrong。

3、为什么超大厂像"醉酒水手"一样花钱

Ross在阿布扎比高盛峰会上问了一屋子管理100亿美元以上资产的人:"你们有谁100%确信10年后AI做不了你们的工作?"没有人举手。

"这就是hyperscalers(超大规模厂商)的感受。他们当然要像醉酒水手一样花钱,因为另一个选择是被完全踢出局。这不是纯经济框架,是'我还能不能保住领导地位'的问题。"

二、自建芯片的陷阱:不是硬件难,是软件更难,跟上趋势最难

访谈中Harry问:OpenAI会不会自建芯片、垂直整合?Ross的回答充满工程师的冷静。

1、芯片创业的时间窗口已关闭

"如果我今天创业,不会做芯片。船已经开走了。从设计到芯片投产,最快三年——如果一切完美。英伟达通常需要3-4年,只是多条线并行。"

更残酷的数据:首次流片(tape out)成功率只有14%。86%的概率需要重新spin。Groq的V2芯片流片成功时,Ross自己都震惊了:"你不应该期待这个。"

2、三层递进的难度

Ross说大家都以为造芯片最难的是硬件。做过才知道,软件更难。再做下去才发现,跟上市场演进方向才是最难的。

"如果你是incumbent(在位者),提前两年规划没问题。但如果你是新进入者,没人会为你还没出来的芯片设计模型。所以你必须有更快的迭代循环。"

Groq做到了一年一代芯片,V2之后一年是V3,再一年是V4。

3、Hardware Lottery(硬件彩票)效应

Ross提到Sarah Hooker的论文:人们为现有硬件设计模型。可能存在比attention更好的架构,但attention在GPU上跑得好,所以它成了标准。

"如果你是incumbent,你有优势,因为大家都在为你的硬件设计。这是一个闭环。"

三、英伟达的monopsony:为什么HBM才是真正的护城河

很多人以为CUDA(英伟达的软件生态)是护城河。Ross说这只对训练成立,对推理不成立。真正的护城河在供应链。

1、什么是monopsony(买方垄断)

Monopoly是卖方垄断,monopsony是买方垄断。英伟达是HBM(高带宽内存)的最大买家,实际上控制着这种关键组件的分配。

"英伟达的GPU本身用的工艺和手机芯片一样。如果他们想,一年可以造5000万颗GPU die。但今年大概只造550万颗。为什么?因为HBM产能有限,interposer(中介层)产能有限。"

2、自建芯片的真正价值

当超大厂对英伟达说"给我100万颗GPU",英伟达说"抱歉,还有其他客户"。超大厂说"没关系,我自己造"。然后英伟达神奇地就找到了货给这家超大厂。

"自建芯片真正给你的不是芯片本身,是掌控自己命运的能力。英伟达没法告诉你配额是多少。"

自建芯片可能更贵——因为不会像英伟达那么好。但那点性能差距在系统总成本里可能微不足道。

3、HBM供应商的利益算计

HBM利润率极高,供应商不愿增加产能,因为供给增加利润率就会下降。同时产能建设需要提前2年以上下单付款,即使有英伟达的现金流,也很难押注那么远的需求曲线。

四、Groq的供应链优势:6个月 vs 2年

这可能是整期访谈最关键的差异化陈述。

1、交付周期的鸿沟

"你给英伟达下单,要提前两年付款。给我们下单100万颗LPU,6个月后第一批就开始交货。"

Ross说他跟一家hyperscaler的基础设施负责人开会,讲了速度、成本等各种优势,对方都没太在意。但当他提到6个月供应链时,"对方直接暂停了对话,只想深挖这一点。这是他唯一关心的事。"

2、为什么会有这个差异

Groq的LPU架构不依赖HBM,使用的是片上SRAM(静态随机存取存储器)。SRAM每bit大约比DRAM贵10倍,但Groq跑同一个模型用的芯片数量是GPU的500倍——意味着GPU那边用了500倍的内存容量。系统总成本算下来,SRAM反而更便宜。

"大家总是从芯片角度看问题,我们从系统角度看。现在我们从全球视角看——13个数据中心,跨美国、加拿大、欧洲、中东。"

3、两周前的真实案例

"两周前有客户来找我们,要5倍于我们全部产能的算力。他们从任何一家hyperscaler都拿不到,从任何人那里都拿不到。我们也给不了。没有人能给。"

市场不是"有没有需求"的问题,是"产能根本不够"的问题。

五、中美AI路径差异:训练成本与推理成本的取舍

Ross在访谈中谈到了中美AI发展路径的差异,有一个判断值得关注。

1、训练便宜 ≠ 运行便宜
DeepSeek等国产模型发布时,业界关注的焦点是训练成本的突破。但Ross认为这背后是不同的优化方向选择。

他的判断是:中国模型的运行成本大约是美国模型的10倍。
"中国模型优化的是训练成本,美国模型优化的是推理成本。"

为什么API价格反而更低?Ross认为是定价策略的差异,不能把价格和成本混为一谈。

2、不同约束下的不同选择
训练是一次性投入,要摊销到每次推理上。如果推理量巨大、算力充裕,降低单次推理成本的收益更高;如果算力受限,先把训练效率做到极致、让模型跑起来更务实。

由于芯片获取受限,国内团队在有限算力下把训练效率做到了极致。这是约束条件下的理性选择。

3、能源与算力的长期布局
Ross提到中国正在建设大量核电,从能源侧为AI算力做长期准备。当能源不再是瓶颈,算力约束的逻辑会发生变化。

不同的起点和约束条件,催生了不同的技术路径。至于Ross关于运行成本的判断是否准确,国内厂商或许有不同的数据。

六、欧洲的困境与能源恐惧

Ross对欧洲的诊断非常直接:问题不是资源,是恐惧。

1、两种风险

美国怕的是omission(错过的风险)——在高增长经济体,错过比犯错代价更大。

欧洲怕的是commission(犯错的风险)——通过立法保护数据本地化,试图用规则代替竞争力。

"如果欧洲想竞争AI,挪威可以部署大量风力发电。挪威风力利用率80%,配合水电,仅这一个国家就能提供相当于整个美国的电力。"

2、核能的真相

Ross说不在欧洲推核能,"因为大家会pushback"。但日本正在重启核电站,欧洲需要听到这个信号。

"在美国建核电站,许可证费用是电站本身的3倍。"

3、如果不行动会怎样

"那么欧洲经济就会变成旅游经济。人们来看古老建筑,仅此而已。你没法在新经济中竞争,如果你没有新经济所依赖的资源。新经济是AI,建立在算力之上。"

七、经济预测:通缩、劳动力短缺、新工作

Ross对AI经济影响的判断与主流叙事完全相反。

1、三重效应
• 大规模通缩压力:咖啡会更便宜,住房会更便宜,一切都会更便宜。机器人农业、供应链优化、基因工程——全产业链降成本。
• 人们会退出劳动力市场:工作时间减少,每周工作天数减少,提前退休。因为维持生活水平需要的工作量下降了。
• 新工作和新产业涌现:100年前98%的美国劳动力在农业,现在只有2%。当时无法想象"软件工程师"或"网红"是一份工作。

"我认为AI会导致大规模劳动力短缺。不会有足够的人来填补将要创造的工作岗位。"

2、劳动力即AI

"经济中最有价值的是劳动力。现在我们可以通过生产更多算力和更好的AI,向经济中增加更多劳动力。这在历史上从未发生过。"

工业革命时期,能源不够用,还需要机器来转化能源。AI不一样:直接加算力,产品质量就提升,用户就增多。没有中间环节。

3、Vibe Coding的未来

四小时,从客户需求到生产部署,没有一行人类写的代码。Ross预测6个月后这个周期会缩短到"客户会议结束前"。

"读写曾经是专业技能,现在人人都会。编程正在经历同样的转变。以后做marketing要会编程,做客服也要会编程。"

回头看:Ross当时说了什么

回头看这期访谈,有几个判断现在格外有意味:

关于是否做模型:"我们找到了一个不会与客户竞争的领域——我们不会创建自己的模型。这条线划在这里,意味着在我们平台上构建是安全的。"

他接着说:"我们可能被客户吞并。但这也意味着你可以信任在我们上面构建。我可能在这个决策上犯了大错。"

关于英伟达的未来:"5年内英伟达仍将占50%以上的收入。但他们可能只占10%的芯片销量。"

Harry问:英伟达 5年后值10万亿吗?Ross说:"如果不值,我会很惊讶。"

然后Harry问:Groq 5年后值10万亿吗?Ross说:"有可能。我们没有供应链限制。我们能生产比任何人都多的算力。"

关于不卖股票:Harry问Ross有没有卖过股票。Ross说:"从来没有。"Harry开玩笑说:"你显然不懂这个游戏怎么玩。"

三个月后,英伟达用200亿美元给出了答案。

核心归纳

Q1: 为什么算力会成为AI的终极瓶颈?

AI与SaaS完全不同。SaaS产品质量由工程师决定,AI产品质量可以直接用算力购买——跑两个实例选更好的答案,给高价值客户更多算力。OpenAI宣布限量产品定高价,就是在验证"更多算力=更好产品"。Token消费几乎等于收入,这就是为什么算力需求永远无法满足。

Q2: 自建芯片为什么这么难?

三层递进难度:硬件→软件→跟上趋势。首次流片成功率只有14%,从设计到投产最快3年。更关键的是Hardware Lottery效应——大家为现有硬件设计模型,newcomer没有生态。英伟达的真正护城河不是CUDA,是HBM的买方垄断,控制了供应链分配。

Q3: 为什么Ross最终会被英伟达收购(或者说技术投资)?

Ross自己说过两件事:第一,不做模型是为了不与客户竞争,"可能被客户吞并";第二,Groq的核心价值是6个月供应链周期和不依赖HBM的SRAM架构。当英伟达需要补齐推理市场短板、解决HBM产能限制问题时,收购Groq是逻辑自洽的答案——用200亿买到的不只是技术,是另一条不受HBM限制的产能通道。

发布于 中国台湾