2009年9月,黄仁勋走上圣何塞Fairmont酒店(现在改名Signia,依然是会场之一)的一个小舞台。现场大约有1500人。他经营着一家生产视频游戏芯片的公司。
接下来的8分钟,他在白板上写满数学公式,解释为什么计算的未来不再依赖于让CPU变得更快。他戏称这是“CEO数学”,并提前向观众席里的每一位计算机科学教授道歉。然后他抛出了当时几乎没人当真的论点:要让计算机性能大幅提升,方法是将普通CPU与数百个小型并行处理器配对使用——而这些小型并行处理器已经存在于显卡之中。一个CPU负责串行任务,数百个GPU核心负责其他所有工作。他称之为“异构计算”。
他展示了计算结果:一个可以高度并行拆分的负载,在这种组合系统上能加速高达200倍。而必须一步一步顺序执行的任务,则完全不受影响。他说:“创造一种新架构时,最重要的事情是确保它‘无害’。”
这是第一届GPU技术大会(GTC)。
三年之前的2006年,NVIDIA已经推出了名为CUDA的软件平台,让开发者可以编写直接在显卡上运行的程序,而不仅仅局限于普通处理器。但几乎没人关心。GPU当时被认为只是用来渲染《使命召唤》的,不是做科学计算的。学术界礼貌但怀疑,企业界则完全视而不见。
在那之前,黄仁勋已经讲这个观点很多年了。当时NVIDIA是一家市值70亿美元的公司,主要与AMD和Intel争夺显卡份额。那就是他们的全部生意。他一直强调:GPU不只是游戏芯片,它是一个计算平台;并行处理将重塑从医学到金融再到物理模拟的每一个行业。也许没多少人真的相信。
后来,深度学习出现了。大约2012年,AI研究人员发现,训练神经网络——也就是让计算机通过在海量数据集上重复数百万次相同计算来学会识别模式——恰恰就是黄仁勋多年来描述的那类工作负载。GPU训练AI模型的速度比CPU快10到50倍。他在2009年这场演讲中勾勒的架构(CPU处理串行步骤,数百个GPU核心并行处理海量数据),如今已经成为地球上每一个AI数据中心的实际蓝图。
ChatGPT跑在NVIDIA GPU上。Claude跑在NVIDIA GPU上。Gemini、Llama、Midjourney,以及你听说过的几乎每一个主流AI模型,都是用CUDA——当年为一个尚不存在的市场打造的软件平台——在NVIDIA硬件上训练出来的。
当年黄仁勋发表这场演讲时,NVIDIA市值大约70亿美元。今天它的市值超过4.4万亿美元,增长了600多倍。1993年在Denny’s餐厅和两个朋友一起创立公司的那个华裔工程师,如今个人净资产超过1600亿美元,登上福布斯全球富豪榜前十。
17年后的GTC 2026,1.7万人挤在一个冰球场馆里,听同一个人讲解接下来如何改变世界。
#gtc2026##ai芯片##黄仁勋##英伟达# http://t.cn/AXftC2rF
发布于 美国
