梁赛 25-12-25 20:18
微博认证:AI博主

从收编Groq看英伟达老黄的“小心思”

说收编准确一点,这次不是收购Groq,NVIDIA花200亿美元跟Groq签非独家授权协议,挖来创始人Jonathan Ross等核心团队入职英伟达,让新CEO负责原Groq业务。

这招是“借船出海”还是“战略防御”。我试着分析一下:

高明之处,其一是:拿下关键IP。NVIDIA通过这次合作,拿到了Groq的知识产权(IP),可以直接用SRAM技术,绕过HBM和CoWoS的限制。想象一下,NVIDIA可以用这个技术打造一款专门干“快速推理”(inference)的芯片,速度飞快,还能靠NVLink让多个LPU芯片无缝协作。

高明之处,其二,也顺带给英特尔喝一口汤。英特尔在18A和18A-PT工艺上也有不错的SRAM技术,这下跟NVIDIA的合作能互相借力。英特尔可以卖更多SRAM,NVIDIA也能省下不少封装成本,可以说是“技术互助团”。

Groq的 LPU 芯片强项在于:它把所有权重(也就是AI模型的核心数据)从传统的HBM(高带宽内存)挪到了芯片上的SRAM内存。 好比是“自带粮仓”,不用老往外跑拿数据,效率自然更高。

SRAM的速度是HBM的10倍, 对比是“跑步冠军”跟“慢悠悠步行”的差距。但HBM有个大麻烦:它需要台积电的CoWoS封装技术。但HBM成本高,而且存储厂产能跟不上,已经成了AI芯片生产的一大瓶颈。

如果能跳过HBM和CoWoS,直接用SRAM,芯片生产速度就能飞起来。而且如果板上集成NVIDIA的NVLink C2C(芯片到芯片连接技术),LPU的扩展能力还能比现在更强,相当于给芯片装了个“超级高速路”,数据传得更快更稳。

不用依赖美光、三星或者SK海力士的HBM产品,内存瓶颈就没了,CoWoS的台积电瓶颈也迎刃而解。这对NVIDIA来说是双赢,既省钱又省心。

其实这笔交易不只是防 competitor(竞争对手),更像是NVIDIA的战略升级。Groq的LPU芯片虽然内存容量有限(适合小模型),但在低延迟场景(比如机器人、实时AI)特别强。NVIDIA的GPU擅长处理大模型,Groq的LPU补上“快手好帮手”的位置,两者一结合,NVIDIA的AI帝国就更无敌了。

再加上CoWoS产能紧张、HBM成本高企,NVIDIA用SRAM+NVLink的方案相当于找到了一条“捷径”。200亿美元听起来多,但对NVIDIA这种财大气粗的巨头来说,可能是“花小钱办大事”。Groq还能独立运营,NVIDIA则拿到了技术和人才,双方都赚了。

有的人认为,最该出手的应该是水果(你懂的),可惜厨子没那个眼光。

老黄这局棋下的非常不错,先把Groq这颗“潜力股”收入囊中,既防了未来威胁,又给自己加了buff(增益)。对普通人来说,未来AI推理可能更快、更便宜,比如聊天机器人反应更快,机器人动作更流畅。英特尔也能跟着喝口汤,SRAM市场可能更热闹了。

你觉得呢?欢迎说下你的看法。

发布于 广东