梁赛 26-04-18 15:00
微博认证:AI博主

Cerebras要上市了。
消息出来的时候,很多人第一反应是:Cerebras是啥?
说实话,这公司在国内知名度远不如英伟达,AMD,甚至不如Groq。但在AI芯片这个圈子里,它一直是个特殊的存在。

特殊在哪?它的芯片是整块晶圆刻出来的。

你听过晶圆级芯片这个词吗?
正常芯片的生产流程是这样的——从一块硅晶圆上光刻出几十上百个小芯片,每个小芯片独立封装、测试、卖给下游。晶圆面积有限,能切出多少颗就多少颗。
Cerebras把这事给反转了。它直接把整块晶圆做成一颗芯片。
有多大?
面积是8576平方毫米,是英伟达H100的56倍。里面塞了85万个AI计算核心,SRAM高达44GB。不用HBM显存,因为片上 SRAM已经够用了,内存带宽做到了21PB/s。
这个数字什么概念?
H100的内存带宽是3.35TB/s。21PB/s,是它的6000多倍。
这就是晶圆级集成的威力。物理上把所有的计算单元和存储单元放在同一块硅片上,互联延迟几乎为零,功耗效率极高。
代价呢?贵。非常贵。一块wafer出一颗芯片,良率直接跟整块晶圆的质量挂钩。废一颗就是废整块。成本高到用它的人基本都是有特定需求的大客户——主要是研究机构、政府项目、还有国家超算。

Cerebras这次招股书里有一句话很关键:与OpenAI的合作协议价值超200亿美元,涵盖持续采购和750兆瓦AI算力部署。
750兆瓦。这个数字我一开始看到有点懵。
750兆瓦相当于一个中型火电厂的装机容量。或者这么说,美国一个中等城市的全部居民用电,大概也就这个量级。
这不只是合作,这是把身家押上去了。
Cerebras的营收数据:2024年2.903亿美元,2025年5.10亿美元。差不多翻了一倍。200亿的合作盘子砸下来,收入能涨多少,可以自己算。
英伟达现在一年数据中心业务大概在900亿左右。Cerebras如果能吃下这个订单,五年内营收翻个几十倍不是梦。
所以它选择现在这个时间点IPO,时机不是偶然的。

现在问题是,Cerebras和OpenAI这个合作,为什么这么重要。
OpenAI是全球最大的模型训练需求方之一,对芯片的需求量是天文数字。正常逻辑,OpenAI应该跟Nvidia深度绑定。H100、H200 Blackwell,这些最尖端的芯片,OpenAI都是第一批拿货的。
但它偏偏选了Cerebras。而且不是试水,是超200亿美元的承诺。
我觉得,OpenAI在传递一个信号。它不想被单一供应商绑定。Nvidia再强,它也有自己的商业利益,有产能限制,有交货周期,有竞争对手要照顾。OpenAI要的是稳定的大规模算力供应,而Cerebras能提供的是一个不同的选择。

说到ASIC,这里要岔开讲一下Groq。
Groq也是做AI芯片的,但它用的架构叫LPU,Language Processing Unit。 GPU和Cerebras的芯片,本质上都是围绕矩阵乘法优化的,因为神经网络训练大量用到这个运算。LPU走的是另一条路,它的设计思路是streaming inference,就是让数据在芯片上流动起来,不需要频繁访问内存。
这有什么好处。延迟极低。LPU跑Llama 3的时候,token输出速度可以达到每秒钟几百个 token,而传统GPU大概在每秒钟几十个 token。差了大概十倍。
很多朋友可能不知道这个数字意味着什么。你跟AI对话,AI回复的每一个字都是一个token。GPU跑的时候,你感觉是AI在"思考"然后"回复"。LPU跑的时候,你感觉AI在"打字",几乎没有延迟。

所以LPU和GPU的区别是什么。GPU是训练王者,大规模模型训练必须用GPU,因为它的并行计算能力最强。但推理这件事,不一定非要GPU。推理需要的是低延迟、低能耗、稳定的吞吐量。LPU在这些场景下有结构性优势。
ASIC则是更宽泛的概念。Cerebras是ASIC,Groq的LPU也是ASIC,Google的TPU也是ASIC。ASIC不是一种具体架构,而是一种设计哲学:为特定场景定制,放弃通用性,换取效率。
这三者的关系大概是。GPU是瑞士军刀,什么都能干,但不是每个功能都是最优的。ASIC是定制刀具,每个刀片只做一件事,但每一刀都特别锋利。

现在说回Cerebras。
它和OpenAI这个合作,对行业意味着什么。我自己觉得,这可能是AI芯片格局真正开始松动的信号。
Nvidia的霸主地位是真实的,它的生态优势、技术优势、产能优势都是实打实的。但算力需求增长的速度,比Nvidia产能增长的速度还要快。OpenAI一家公司对算力的需求,可能就超过了Nvidia某条产线的容量上限。这种情况下,有第二家、第三家靠谱的芯片供应商,对需求方来说是战略必需。
而且Cerebras和OpenAI的合作不只是买卖,是750兆瓦算力部署。这意味着Cerebras不只卖芯片,它还要建算力中心,自己做算力服务。这路子比特斯拉还重资产,但也意味着它的护城河更深。芯片可以复制,但自建算力基础设施不是谁都能玩的。

我有时候在想,AI行业现在的发展速度,到底是太快了还是太慢了。
说太快,是因为每隔几个月就有新的芯片、新的模型、新的公司冒出来。说太慢,是因为真正的AGI还没来,能源问题还没解决,算力瓶颈还在。我们其实还处于AI的非常早期阶段,早期就意味着,格局还没定,机会还在,变量还在。
Cerebras、Groq、Google TPU,这些"非主流"芯片公司正在用自己的方式重新定义游戏规则。它们不是要取代Nvidia,而是在告诉市场,算力这件事,不只有一条路。

发布于 广东