龙哥掌舵人 25-10-15 22:15
微博认证:科技博主 微博原创视频博主

AI算力新的升级驱动方向

1.ai — The Single-Digit .ai Portfolio算力发展重心正从“算力”向“运力”迁移

随着AI大模型训练和推理需求的爆发,单纯提升GPU(算力)性能已遇到瓶颈。GPU之间的高速互联能力(即“运力”) 已成为释放AI算力潜力、提升数据中心效率的关键。AI硬件的发展需要算力、存力、运力三者协同。

2.“Scale-up”成为当前AI网络架构的焦点

AI集群模块化、分布式趋势下,GPU间通信延迟成为性能瓶颈。为避免GPU“空转”等待数据,必须部署相匹配的高性能网络方案。
AI集群的两种扩展方式:

Scale-up(纵向扩展):指在单个节点或机柜内,通过高速互联技术(如NVLink、PCIe)连接更多GPU,追求极低的通信延迟,解决单个任务内部的协同问题。这是当前技术发展和投资的重点。

Scale-out(横向扩展):指通过以太网或InfiniBand等技术将多个节点/机柜连接成更大集群,解决超大规模模型训练的问题。

Scale-across(跨域扩展):一种新兴概念,指将分布在不同地理位置的数据中心互联,形成巨型AI工厂,以突破单数据中心在电力、空间等方面的限制。

市场空间:Lightcounting预测,Scale-up交换芯片市场到2030年将接近180亿美元,年复合增长率(CAGR)约28%。

3.国产算力与“超节点”

在中美科技摩擦背景下,国产AI算力自主可控成为重中之重,2026年被视为国产超节点服务器放量元年。

进展:华为(昇腾950/Atlas超节点)、阿里(磐久超节点)、中国移动(OISA协议“北京方案”)等纷纷公布重大进展,在芯片、互联、存储等多层面实现突破。国产超节点的多点开花表示我国在AI芯片、存储芯片、铜连接等多个层面实现突破,自主可控版“NVLINK”已经成型。

3.关键硬件环节与产业链机会

1)光模块/组件:

直接受益于Scale-up趋势,速率迭代加快(400G→800G→1.6T),低功耗方案(LPO)和高集成方案(CPO)开始规模部署。中国厂商(如中际旭创、新易盛)在技术和市场份额上全球领先。

光纤光缆:多模光纤、高密度光缆、空芯光纤等需求提升,以应对机柜内高密度、短距离互联的需求。

2)交换芯片(Switch Chip)

这是实现Scale-up和Scale-out的核心芯片,竞争格局:

英伟达(NVIDIA):凭借NVSwitch(私有协议)在Scale-up领域占据绝对领先地位,带宽最高、部署最成熟。

博通(Broadcom):在Scale-out以太网交换芯片市场占据主导地位(约90%市占率)。同时推出开放规范的SUE架构,试图将以太网引入Scale-up领域,与NVLink竞争。

Astera Labs:专注于PCIe/CXL互连,提供“芯片+延长线+软件”完整解决方案,并积极参与UALink(由AMD、谷歌等推动的开放标准)生态。

国产替代进展:

独立芯片厂商:盛科通信(以太网交换芯片领跑)、万通发展(数渡科技PCIe 5.0交换芯片已小批量)、澜起科技(从Retimer切入PCIe/CXL互联)。

大厂自研:华为(发布51.2T交换机,开放“灵衢”互联协议)、中兴通讯、新华三、海光信息(开放HSL互联协议)均已推出自研交换芯片或互联方案,构建自主生态。

发布于 上海