高飞 26-03-18 15:08
微博认证:至顶科技创始人 AI博主

#模型时代# 黄仁勋GTC 2026记者会:为什么我会说OpenClaw很重要,每个公司都要有一个OpenClaw战略

昨天发了老黄的主题演讲,今天再发一下他的记者会记录,两小时的记者会,他回答了大概三十几位记者的现场提问吧。

我大概会想了一下,很多问题都和Groq有关,还有OpenClaw,龙虾真的全球一样火。当然,我觉得中国更火。

---

一、Groq:英伟达花了200亿做了什么

英伟达这次GTC宣布了一项重要的技术整合:Groq的LPU芯片正式加入Vera Rubin平台。这是本届GTC最大的悬念之一,也是记者会第一个问题的焦点。

背景:Groq是一家由谷歌TPU创始工程师Jonathan Ross于2016年创立的AI芯片公司,专门开发LPU(语言处理单元),针对AI推理的低延迟场景做了专项优化,是英伟达在推理领域最受关注的挑战者之一。2025年12月,英伟达以约200亿美元完成了与Groq的资产许可协议,Jonathan Ross及核心工程团队加入英伟达,Groq公司本身继续独立运营。英伟达将这笔交易定性为许可合作,不是并购。

记者的问题直接:花了这么多钱,是不是等于承认英伟达的GPU在推理上有根本局限?

1、黄仁勋的答案:Groq是AI工厂新增的一条专用生产线

他的逻辑从产品现状出发。Grace Blackwell已经是今天推理效率最高的系统,性能提升35倍,成本降至五十分之一,每瓦性能提升50倍。"我们现在是成本最低的token生产商,是吞吐量最高的token工厂。"

Groq填补的是一个更细分的缺口。有一类推理场景同时要求模型参数量大、上下文窗口极长、响应延迟极低,三个目标同时满足。Groq的LPU延迟极低,但片上内存只有500MB,跑不了完整的大模型;Vera Rubin的GPU内存大、计算强,但延迟不是强项。把两者放进同一系统,用Dynamo——英伟达的推理调度软件——做协调,吞吐量提升35倍,三个目标同时达成。

"Groq对英伟达的意义,就像当年Mellanox对英伟达的意义一样。我们是在给架构做加法,因为我们造的不只是一块GPU,我们造的是一座AI工厂。"

2020年英伟达收购Mellanox时也有人质疑,但InfiniBand高速网络后来成了大模型训练集群的骨干。黄仁勋认为Groq扮演的是推理时代里同样的角色。

2、具体配比:75%是纯Vera Rubin,25%加Groq

整个AI工厂约75%仍是纯Vera Rubin机架,另外25%配备Groq LPX,那25%里Vera Rubin依然是核心,Groq是附加的专用解码加速层。

"我们不知道怎么打败Vera Rubin,否则我们就会造出打败它的东西。"

3、"推理之王"来自第三方评测

记者会上黄仁勋多次提到这个称号。它来自AI推理评测机构SemiAnalysis的InferenceX基准测试报告,在各项推理指标上将英伟达系统列为第一。黄仁勋说他通常只能得到玻璃奖杯,不知道拿来干什么,但"推理之王"这个名号他很受用。

他给出了三个独立佐证:MLPerf推理基准测试,英伟达在所有项目排名第一,大多数竞争者甚至无法完成测试;SemiAnalysis InferenceX报告,每个可量化维度都领先;Artificial Analysis,扫描了约20家API推理服务商,英伟达是唯一在所有维度都名列前茅的方案。

---

二、那个1万亿:口径是什么,没算进去的有多少

GTC主题演讲上,黄仁勋说到2027年累计采购订单和需求管线超过1万亿美元,去年同场合说的是5000亿。这个数字让市场既兴奋又困惑——同一场演讲里还发布了Groq 3 LPU、Vera CPU独立机架、BlueField-4存储机架等一系列新产品,分析师不清楚这些算不算进那1万亿。记者会第二天,有人直接追问:这个数字的口径到底是怎么定的?

1、1万亿只包含两样东西,口径是刻意收窄的

黄仁勋的分解清晰:这1万亿只包含Blackwell和Vera Rubin的GPU订单,时间截止2027年底。 明确不包括Vera CPU独立业务、Groq LPX机架、存储系统(BlueField-4 STX)、Vera Rubin Ultra,以及更下一代的Feynman系列。

为什么用这么窄的口径?是为了和去年的5000亿做同类比较。如果今年把Groq、CPU、存储全部打包进来,读者无法判断翻番是因为业务真的增长了,还是口径变了。

2、如果全算上,理论上是1.2万亿

一个一千兆瓦数据中心,加上Groq LPX之后经济价值大约增加25%。存储系统是一块此前没有的新业务,AI消耗存储的方式和人类完全不同,KV缓存的规模让传统存储架构跟不上。"如果我把这些也加上去,那个1万亿可以变成1.2万亿。"

"我站在这里,距离2027年底还有21个月。这意味着它很可能比1万亿更大。"

3、回购:今年比例会超过去年的40%

英伟达此前承诺将约50%的自由现金流用于股东回报,去年实际分配了约40%。现金分配优先级是:供应链投资和产能保障在先,生态系统投资其次("投资下一个Google、下一个Meta"),围绕CUDA建设生态再次,最后才是回购和分红。今年基数更大,比例会提高。

---

三、OpenClaw:为什么黄仁勋说每家公司都需要一个OpenClaw战略

OpenClaw是奥地利开发者Peter Steinberger于2026年1月发布的开源AI Agent平台。简单说,它让AI不只是能回答问题,还能自主调用工具、分解任务、完成复杂工作流——相当于给AI装上了"手"。它出现几周内就成为GitHub历史上增长最快的开源项目,超过了Linux三十年的扩散速度。

GTC开幕前一天的预热圆桌直播里,黄仁勋专程走进直播间和Steinberger打了个招呼。主题演讲上,他把OpenClaw与CUDA、Linux相提并论,说"全世界每一家公司现在都需要一个OpenClaw战略"。Steinberger本人已于今年2月加入OpenAI,但OpenClaw作为开源项目独立延续。记者会上,他进一步展开了对这个判断的解释。

1、历史坐标:ChatGPT之后、o1之后,现在是OpenClaw之后

黄仁勋的判断:ChatGPT把生成式AI带到世界面前;o1把推理系统带到世界面前;OpenClaw是"后推理时代"第一个真正构建良好的开源Agent平台。 此前的Agent工具,比如Claude Code,基本都在科技公司内部使用,没有暴露给大众。OpenClaw让一行代码安装、一条指令启动一个Agent成为现实。

2、NemoClaw:企业可以放心用的OpenClaw版本

英伟达推出了NemoClaw,即OpenClaw的企业安全参考栈,核心解决安全性、治理和隐私这三个让企业不敢用开源工具的顾虑。黄仁勋把它定位为Linux加Kubernetes级别的基础设施,承诺持续贡献30年、60年。

关于长期承诺的可信度,他给出了一个具体逻辑:Groq 1、Groq 2刚发布;Cosmos 1、Cosmos 2刚发布;Nemotron已出到第4代。"当你开始给一个东西编号,就是因为你有意图继续下去。CUDA 1到今天是CUDA 13了。"

3、OpenClaw让黄仁勋比以前更忙

他描述了英伟达内部的真实变化:以前写完一份产品定义,团队拿去做一个月;现在,Agent 30分钟就回来了,然后又轮到他了。"你始终处在关键路径上。"

这也是他对"AI让人更闲"这个预期的直接回应:AI让工作回来的速度更快,不是让工作消失。

---

四、AI工厂不消灭旧世界,它让旧世界更忙

记者会里有几个问题指向同一个焦虑:AI来了,SaaS软件怎么办?制造业工人怎么办?德国、日本这样的工业强国还有机会吗?

1、SaaS不会死,Agent会让工具许可证爆炸式增长

有人问Agent工作流能不能替代传统SaaS,黄仁勋直接说:"请转告那些个人投资者,他们完全错了。"

他用芯片设计EDA工具举例。Synopsys和Cadence的业务上限是工程师数量,更多工程师就意味着更多许可证。有了Agent工程师,它们仍然需要使用EDA工具,因为芯片设计的每一步都需要可验证、可重复的输出,结果必须放回EDA工具的数据结构里——"你不能凭空变出晶体管。"SQL同理,Agent完成任务后结果必须写回数据库,ground truth不会消失。有了Agent,需要授权的工具数量可能爆炸式增长,而不是减少。

2、机器人填的是缺口,不是抢的位置

全球制造业目前缺少数千万工人,缺数百万卡车司机,就业率已经很高但许多公司仍然没有足够的劳动力。机器人首先在填补缺口。

"你上次坐在门廊的摇椅上、喝着柠檬水、看着日落是什么时候?你开玩笑吧?我只在100年前的电影里看到过。"过去一百年技术不断进步,就业数量和经济总量都在上升。马以前用来骑、用来犁地,现在一匹马价值500万美元。"世界在变化,AI会改变所有这些。但我相当确信,会是一个更好的世界。"

3、德国和日本的机会:跳过IT革命,直接上AI

德国、日本曾引领机电一体化时代,但IT革命来了之后被甩在后面。原因是深层文化差异:制造业讲究步步完美,软件必须先发布后修复,两者文化格格不入,美国因此完全主导了IT革命。

OpenClaw改变了这个方程式。"OpenClaw不需要你去编程,只需要你告诉它做什么。你可以跳过IT革命,直接跳到AI革命。把AI技术和你们机电一体化产业的天赋结合起来,你们一下子就变成了机器人产业。"

---

五、物理AI:数据、速度和时间表

"物理AI"是英伟达用来描述AI在真实物理世界中运作的统称,包括自动驾驶、机器人、工业仿真等。这次GTC发布了多项相关产品和合作,记者会上几个问题也涉及这个方向:物理AI的训练数据从哪来?速度要提升到什么程度才能改变使用方式?机器人什么时候才能真正好用?

1、游戏数据不能直接用来训练物理AI

游戏不完全遵守物理规律:Fortnite的角色脚步和奔跑速度不匹配,人物可以从山上无损跳落,树木摇摆不符合真实物理。用这些数据训练需要基于物理规律的基础模型,会把错误的物理观念一起学进去。

英伟达的解法是数据飞轮:先用真实世界的观察数据打底;再用3D物理仿真增强,Newton和Isaac Lab里的碰撞、关节运动、逆向运动学全部遵守物理规律;把两类数据合并训练出世界基础模型;等模型有了足够能力,再用3D图形控制它生成大量合成数据,飞轮就此启动。

2、速度翻100倍之后,使用方式会变

今天用ChatGPT或主流AI,大约每秒输出20个token。Vera Rubin可以做到每秒1000到2000个token,快了将近100倍。

黄仁勋描述的使用场景:"未来你和AI的交互,在你打字的同时,它已经在思考了。等你按下回车,它已经完成了。'给我写一个网站程序'——按回车——完成。'给我设计一个厨房'——按回车——完成。"

速度的量变会引发使用方式的质变,就像宽带让在线看电影成为可能,而拨号时代的人根本不会想到提这个需求。

3、机器人:三年,不是十年

你已经能看到机器人在走路了。一旦一项技术有了存在证明,精细化改进通常不超过五年。动作控制(System 1,通过视觉-语言-动作模型实现)和认知推理(System 2,通过OpenClaw实现)正在被同时解决。"在不到五年的时间内,比如三年,你将看到极其出色的机器人。"

---

总结

黄仁勋在这场记者会上回答的几乎每个问题,底层都是同一个框架:AI工厂的逻辑历来不是取代上下游,而是放大上下游的需求。 Groq是给工厂加了一条新生产线,不是承认GPU有局限;OpenClaw是让工厂的操作系统开源,不是替代其他软件;速度提升100倍是让旧的工作方式跑得更快,也会创造今天想象不到的新使用场景。

CUDA的历史是他反复用来说理的工具。当年0%营收、占90%成本,任何理性的人都会放弃,但英伟达没有。这个故事不是怀旧,而是在告诉外界:你们现在看到的所有"占比还低""尚不成熟"的业务,都可能是下一个CUDA。

---

核心归纳

Q1:Groq和Vera Rubin是什么关系,英伟达为什么要做这笔交易?

Groq解决的是"大模型+长上下文+极低延迟"必须同时满足的场景,单独的Vera Rubin GPU或单独的Groq LPU都无法同时达成三个目标。两者结合,用Dynamo做调度,同等功耗下推理吞吐量提升35倍。黄仁勋把这笔交易类比为当年收购Mellanox:不是认输,是给AI工厂加了一条专用生产线。整个工厂约75%仍然是纯Vera Rubin,Groq只出现在另外25%里,而且依然以Vera Rubin为核心。

Q2:那个1万亿美元的采购订单,到底包含什么、不包含什么?

只包含Blackwell和Vera Rubin的GPU订单,时间截止2027年底。明确不含Groq LPX、Vera CPU独立业务、存储系统、Vera Rubin Ultra和Feynman系列。这个窄口径是刻意的,为了和去年GTC说的5000亿做同类比较。如果把新产品全算进去,理论上可以达到1.2万亿。距离2027年底还有21个月,黄仁勋认为最终数字很可能超过1万亿。

Q3:黄仁勋凭什么认为AI不会消灭现有的工作和软件?

他的核心论据是工厂逻辑:工厂历来放大上下游需求,不缩减它。以EDA芯片设计工具为例,Agent工程师做完芯片设计,结果必须放回Synopsys、Cadence的数据结构里,因为每一步都需要可验证、可重复的输出。有了Agent,需要授权的工具数量可能爆炸式增长。机器人方面,全球制造业目前缺少数千万工人,机器人首先在填补缺口而不是抢占位置。历史趋势也支持这个判断:过去一百年技术不断进步,但就业数量和经济总量都在持续上升。

发布于 美国