交易者简放 26-03-17 09:00
微博认证:财经博主

北京时间2026年3月17日凌晨,英伟达创始人兼CEO黄仁勋在GTC大会发表“全栈AI”主旨演讲,并在问答环节回应行业核心关切。本次讲话聚焦AI基础设施迭代、生态布局及产业增长空间,披露重磅新技术与营收预期,明确AI产业下一阶段方向,为市场提供清晰投资指引。本文先梳理演讲及问答核心要点,再拆解新技术与增量方向背后的投资逻辑。

一、黄仁勋凌晨讲话核心要点(演讲+问答)

(一)演讲核心要点

1. 营收预期翻倍,算力需求爆发:黄仁勋预测2027年算力芯片营收至少1万亿美元,远超去年同期5000亿美元预期,核心源于AI推理需求激增。业务结构上,60%来自超大规模云厂商,40%覆盖云服务、企业、机器人等多领域。

2. 硬件架构迭代,算力再升级,拉动存储芯片需求:推出Vera Rubin平台及Rubin Ultra架构,100%液冷设计大幅降本提效;核心Rubin GPU采用台积电3nm工艺,推理/训练性能较上一代大幅提升,且将内存从HBM3e升级至HBM4,内存传输速度提升1.6倍,直接拉动高端HBM存储芯片需求;配套Vera CPU为88核Arm架构,有望成为数十亿美元级业务,同时带动LPDDR5内存需求增长。黄仁勋也明确提及,英伟达与全球主要内存供应商保持深度合作,当前存储供应链扩产主要为满足其需求,凸显存储芯片的核心支撑作用。

3. Groq LPU融合,创新解耦推理,催生SRAM增量需求:落地Groq 3 LPU芯片(已量产,下半年发货),与Rubin GPU形成解耦推理体系,Rubin负责预填充等计算,Groq专注低延迟Token生成,延迟减半,解锁增量市场。Groq LPU采用以SRAM为核心的存储架构,单颗芯片配备大规格片上SRAM,其机架产品搭载256个LPU处理器,可提供128GB片上SRAM,大幅提升数据处理带宽,直接带动SRAM存储芯片需求爆发,同时推动3D堆叠SRAM相关技术落地应用。

4. 关键技术量产,筑牢生态壁垒:全球首个CPO架构Spectrum-6 SPX交换机已量产,由英伟达与台积电联合开发;披露下一代费曼架构GPU进展,同时推出太空数据中心Vera Rubin模组,拓展应用场景。

5. 软件生态完善,推动AI落地:发布DLSS 5图形技术(今年秋季上线,获头部游戏厂商支持);推出NemoClaw平台、开源智能体工具链,成立Nemotron联盟,推动企业软件向“AI代理平台”转型。

6. 加码生态投资,巩固闭环:敲定对Anthropic的百亿美元投资,接近与OpenAI达成注资协议,通过资本绑定锁定头部大模型厂商算力需求,协同优化软硬件生态。

7. 拓展应用场景,覆盖多领域:多家车企加入其robotaxi平台,展示与迪士尼合作的机器人项目;强调专用软件库的重要性,覆盖自动驾驶、金融、游戏等垂直领域,头部模型厂商算力需求旺盛。

(二)问答环节核心要点

1. 回应投资模式质疑:明确投资OpenAI、Anthropic核心是绑定算力需求,需求真实(Anthropic营收年增10倍);承认行业资本支出与收入比达6:1,存在失衡风险,但长期看好AI趋势。

2. 应对行业竞争:通过大额投资头部厂商巩固核心供应商地位,依托技术协同保持每瓦Token数优势,筑牢技术护城河,应对AMD、博通等厂商追赶。

3. 披露商业化进展:微软Azure已部署首套Vera Rubin机架;Groq LPU下半年发货,优先供应头部云厂商及大模型企业,聚焦低延迟场景需求。

4. 下一代技术布局:Rubin芯片已成核心选择,Rubin Ultra架构可连接144块GPU;费曼架构将突破3D堆叠芯片和定制HBM内存技术,进一步降低推理成本、提升效率,预示着下一代存储芯片(定制HBM、3D堆叠SRAM)将迎来技术升级与需求放量,长期利好存储芯片产业链。

5. AI应用前景:AI正从“能推理”向“能干活”升级,Claude Code已全面应用于英伟达软件团队;开源模型成熟后,将激活全技术栈需求。

二、基于讲话内容的投资逻辑(聚焦新技术+增量方向)

黄仁勋本次讲话核心逻辑:以AI基础设施迭代为核心,通过“硬件升级+生态绑定+场景拓展”锁定算力长期增长,推动AI从算力供给向规模化应用跨越,重点把握新技术增量与生态绑定的确定性机会。

(一)核心主线:算力基础设施,长期确定性最强赛道

1万亿美元营收预期的核心支撑是算力需求指数级增长,投资逻辑围绕“芯片—设备—配套”展开:

1. AI芯片:Rubin、费曼架构迭代拉开竞争差距,“GPU+LPU”覆盖全场景推理需求;投资头部模型厂商锁定长期采购,Groq LPU量产打开低延迟芯片增量,其代工厂、SRAM供应商同步受益。同时,Rubin GPU对HBM4的规模化采用,推动三星、SK海力士等头部存储厂商加速扩产,HBM存储芯片迎来量价齐升行情,此外Vera CPU带动LPDDR5内存需求,形成存储芯片多品类协同增长格局。

2. 算力设备与配套:液冷(Vera Rubin平台标配)替代风冷成必然,相关设备及冷却剂供应商受益;CPO技术已量产,作为Rubin核心配套,其光模块、封装测试等产业链将爆发增长。

3. 算力服务:全球云厂商2026年AI基础设施资本开支突破7000亿美元,头部云厂商(如微软Azure)率先部署新架构,算力租赁、运维服务商同步受益。

(二)细分增量:新技术落地,打开千亿级新市场

DLSS 5、解耦推理等新技术为全新增量,具备高成长性:

1. DLSS 5:作为图形技术重大突破,获头部游戏厂商支持,将拉动消费级GPU需求,游戏产业链及图形配套厂商受益。

2. 解耦推理:“Rubin+Groq”模式解锁3000亿美元增量市场,软件适配、硬件互连企业及AI代理、代码生成应用厂商将获得业务增量。其中,Groq LPU对SRAM的大规模应用,以及Rubin GPU对HBM4的依赖,推动存储芯片向“高端化、专用化”升级,3D堆叠SRAM、HBM4等细分领域将成为核心增量,相关存储芯片供应商及封装测试企业(如台积电SoIC封装)持续受益。

3. AI代理与开源生态:开源智能体工具链及Nemotron联盟推动AI代理规模化落地,参与联盟的开源模型企业、工具链配套(安全、隐私)企业受益。

(三)生态协同

核心聚焦“生态绑定标的+核心供应商”,分享龙头增长红利:

1. 头部大模型厂商:与英伟达深度绑定的OpenAI、Anthropic等高速成长,围绕其提供数据、优化、应用服务的企业同步受益。

2. 英伟达核心供应商:台积电(Rubin、CPO制造)、三星(Groq制造)、HBM内存及CPO光学器件供应商,直接受益于产能扩张与技术迭代。其中,三星、SK海力士、美光等存储芯片龙头,凭借HBM4、SRAM的产能优势,成为英伟达核心供应链伙伴,持续享受AI算力需求带来的增长红利,同时3D堆叠存储相关的封装企业也将同步受益。

3. 生态合作伙伴:加入robotaxi平台的车企、与英伟达合作的机器人企业、游戏厂商,借助其技术优势加速AI应用落地。

(四)场景落地:垂直领域渗透,挖掘长期增量

重点关注高需求、高壁垒垂直场景,把握算力需求延伸机会:

1. 自动驾驶:robotaxi落地加速,与英伟达合作的车企、算法厂商及算力、传感器配套企业,将迎来需求爆发。

2. 机器人:AI代理技术推动机器人智能化升级,人形/工业机器人制造及算力、算法配套企业受益。

3. 专业领域:AI在药物研发、金融交易等领域的应用,带动相关企业效率提升,具备长期增长潜力。

三、总结

本次讲话核心信号:AI进入算力决胜阶段,基础设施持续加码,AI代理将成下一代企业软件核心形态。

核心投资逻辑:

算力基础设施为长期主线(芯片、液冷、CPO,含HBM4、SRAM等存储芯片);

新技术落地为短期增量(DLSS 5、解耦推理等,带动存储芯片高端化升级);

生态绑定提供确定性保障(头部模型、核心供应商);

垂直场景为长期支撑(自动驾驶、机器人等)。#黄仁勋# #黄仁勋2026gtc演讲#

发布于 山东