#价值投资日志[超话]# AIDC到底用掉多少光纤?
AI 对光纤需求的拉动,本质上是由数据中心流量模型的物理层重构带来的,不仅是量的线性叠加,更是密度的指数级跃升,架构逻辑由“收敛”转向“直通”,单节点光纤连接数有望提升5-10倍。
传统数据中心(收敛网络):处理的是用户访问服务器的“南北向流量”,为节省成本,通常采用3:1甚至更高收敛比的网络架构,多台服务器共享上行链路,并非每台服务器都需要全带宽的光纤直连。
AI数据中心(无阻塞网络):处理的是GPU之间的参数同步的“东西向流量”,在万卡集群中,任何延迟都会导致木桶效应,AI 网络要求1:1无阻塞架构,每一颗 GPU都需要独享的高速光纤通道(如InfiniBand或RoCEv2)。
对比测算:传统通用服务器机柜通常仅需4根跳线连接ToR交换机;而在NVIDIA DGX H100/H200 SuperPOD集群架构下,单台服务器内部需多达32根光纤(NVLink +计算网+存储网),叠加Spine-Leaf两层交换架构的互联需求,单机柜光纤消耗量是传统机柜的5-10倍以上。
发布于 贵州
