#2026年超大规模 ASIC 展望##去英伟达化加速#
刚在X上看到一位用户整理的AI专用芯片的图表。见附图。
这是个很重要的趋势,稍微解读一下。
全球最主要的云服务提供商云计算巨头们正在通过自研ASIC芯片,将计算能力这一核心基础设施牢牢掌握在自己手中。
2026年将是这场竞争的一个关键节点。
最显著的特征就是:“去英伟达化”趋势加速
即:亚马逊、谷歌、微软等公司不再完全依赖英伟达(NVIDIA)的GPU,而是大量投资自研AI芯片(Trainium, Inferentia, TPU, Maia)。其主要动机是:
一、降低成本:自研芯片可以避免高昂的GPU采购成本,从而提升自身数据中心业务的利润率。
二、优化性能:针对自家云平台上的特定工作负载(如AWS的EC2, Google的Vertex AI)进行深度优化,提供比通用GPU更高的效率和性能。
三、战略自主:掌握核心技术栈,避免供应链和技术路线受制于人,形成独特的竞争优势。
另一个特征则是:AI训练与推理的边界模糊化
多家公司的芯片(如Trainium/Google TPU系列)都同时标注了“AI training & inference”,这表明芯片设计正在向“训练推理一体化”发展。一颗芯片既能完成模型训练,也能高效进行模型部署推理,这有助于简化系统架构、降低成本。
发布于 广东
