【NVIDIA发明全新的LPU!500MB高速缓存 7倍带宽碾压HBM4】NVIDIA发布LPU语言处理单元,专攻AI推理。Groq3集成500MB SRAM,带宽达150TB/s,是HBM4的7倍。作为Rubin平台的协处理器,它能将大模型吞吐量从每秒100token暴增至1500+。这种恐怖的极高带宽,正是万亿参数AI智能体实时交互的核心支柱。
发布于 广东
