国产算力一些新的催化
1.催化
《科创板日报》:阿里巴巴已秘密启动“千问”项目,基于Qwen最强模型打造一款同名个人AI助手——千问APP,全面对标ChatGPT,加入全球AI应用的顶级竞赛。阿里核心管理层将其视为“AI时代的未来之战”,希望借助Qwen的开源技术优势赢得竞争。这是年初公布3800亿投入AI基础设施之后,阿里AI战略的又一重要布局。
2.阿里资本开支
阿里正积极推进三年3800亿的AI基础设施建设计划,并将持续追加更大投入;对比2022年,2032年阿里云全球数据中心的能耗规模将提升10倍。此外,阿里宣布新一轮全球基础设施扩建计划,将在巴西、法国和荷兰首次设立云计算地域节点,并将扩建墨西哥、日本、韩国、马来西亚和迪拜的数据中心。以阿里为代表的国内大厂持续更新AI数据中心布局规划,将直接拉动产业链需求。
3.阿里算力基础设施新技术
阿里在计算、存储、网络、安全及数据库等领域的最新进展。
1)在计算方面,Scale Up互连架构成为AI超节点突破性能瓶颈的关键路径,开放的高速互连标准UALink支持千级加速器互联、超低延迟与内存语义访问;大会发布了UALink协议与交换机、磐久128超节点等,并展示了基于正交架构的超节点系统,在112Gbps和224Gbps速率下实现不同厂商SerDes物理层互通。
2)在存储方面,阿里提出AI时代的数据底座,包括OSS、EBS、NAS三大核心产品,以及自研AliFlashSSD和镇岳芯片(平头哥);同时发布CPFS训练与推理、Tablestore智能体记忆存储、OSS向量Bucket、Cloud Backup智能化保护与磐久存储服务器。
3)在网络方面,推出了新一代HPN8.0架构,支持万~十万卡集群,配套自研102.4T单芯片交换机、800G/1.6T光模块,以及自研硅光芯片。
4.超节点
AI能力由算力(GPU)+存力(HBM)+运力(节点内/间/跨DC互联)三部分协同驱动。随着GPU和HBM带宽大幅提升,运力将成为决定资源利用率和成本效率的关键——运力不足会导致节点空置、GPU性能浪费。超节点及Scale-up将成为算力扩展的主要技术发展趋势,超节点+超大集群拉动Scale-up/Scale-out/Scale-across市场,交换芯片与互联协议成为核心。
2025云栖大会上,阿里云发布了全新一代磐久AI Infra2.0 AL128超节点服务器。作为超节点服务器,磐久AL128采用面向下一代超大集群的服务架构,重构GPU间互连方式,旨在大模型训练与推理中实现算力与通信协同最优,相对于传统架构,同等AI算力下推理性能还可提升50%。
5.江原概念
11月11日,深圳江原科技有限公司再度发布新款双芯片架构产品——D20加速卡。D20加速卡最大可以支持256GB显存,单台服务器最多可达4TB,能够匹配云端数据中心这种复杂的AI需求。该款产品是国内首款全国产算力中心级推理加速卡,集成两颗江原自主研发的全国产人工智能大芯片,实现设计、制造及封装的全流程本土化,可实现满血版DeepSeek V3/R1 671B部署。
6.相关公司
1)代工:中芯国际;
2)国产芯片及设计:寒武纪、海光信息、品高股份、芯原股份、翱捷科技;
3)光模块:中际旭创、光迅科技等;
4)交换机:中兴通讯、锐捷网络、盛科通信等;
5)液冷:思泉新材、英维克等;
6)服务器:浪潮信息、中科曙光等;
8)IDC:数据港、杭钢股份;
9)电力系统:中恒电气、科华数据等。
10)江原概念:品高股份、安博通。
发布于 广东
