梁赛 25-09-08 11:54
微博认证:AI博主

#2026年超大规模 ASIC 展望##去英伟达化加速#
刚在X上看到一位用户整理的AI专用芯片的图表。见附图。
这是个很重要的趋势,稍微解读一下。
全球最主要的云服务提供商云计算巨头们正在通过自研ASIC芯片,将计算能力这一核心基础设施牢牢掌握在自己手中。
2026年将是这场竞争的一个关键节点。​​
最显著的特征就是:“去英伟达化”趋势加速
即:亚马逊、谷歌、微软等公司不再完全依赖英伟达(NVIDIA)的GPU,而是大量投资自研AI芯片(Trainium, Inferentia, TPU, Maia)。其主要动机是:

​一、降低成本​:自研芯片可以避免高昂的GPU采购成本,从而提升自身数据中心业务的利润率。

​二、优化性能​:针对自家云平台上的特定工作负载(如AWS的EC2, Google的Vertex AI)进行深度优化,提供比通用GPU更高的效率和性能。

三、战略自主​:掌握核心技术栈,避免供应链和技术路线受制于人,形成独特的竞争优势。

另一个特征则是:AI训练与推理的边界模糊化​

多家公司的芯片(如Trainium/Google TPU系列)都同时标注了“AI training & inference”,这表明芯片设计正在向“训练推理一体化”发展。一颗芯片既能完成模型训练,也能高效进行模型部署推理,这有助于简化系统架构、降低成本。

发布于 广东