有限次重复博弈 26-04-30 12:55
微博认证:财经博主 头条文章作者

SemiAnalysis 近期发布了一篇关于 CPU 的分析报告,梳理几个重点:

过去几年 AI 的发展路径很直观:重心落在 GPU,并延伸出 HBM、散热、电力、网络通信等配套环节。这个逻辑本身没有问题,因为 AI 最核心的算力确实依赖 GPU。

但这篇报告指出了一个变化:
AI 正在做的事情,已不仅仅是“计算”。早期的 AI 应用主要集中在模型训练与推理,本质上是数据输入、计算、输出结果。而如今,AI 逐渐能够:
• 检索资料(RAG)

• 调用工具

• 编写与执行代码

• 验证结果

• 甚至自主拆解任务、分步完成(智能体/Agent)

这就带来了一个关键区别:GPU 擅长“计算”,但上述流程中,有相当大部分属于数据处理、流程控制、工具执行与结果验证——这些正是 CPU 所负责的工作。

举个简单例子:AI 帮你写一段代码,并非写完就结束,后续还需经过编译、执行、测试、修正等步骤。而这整个链条,大多运行在 CPU 上。

因此可以这样理解:
• GPU 承担密集型运算;

• CPU 负责串联整个流程,确保系统真正运转起来。

这也将影响数据中心的配置思路。过去建设 AI 基础设施,思路相对单纯——“多买 GPU”。而现在的情况是:GPU 越多,反而越需要足够的 CPU 来支撑整个系统。

SemiAnalysis 引用了一个直观的案例:微软在建设 AI 数据中心时,GPU 部分功耗约 295MW,而旁边还需配备约 48MW 的 CPU 与存储支持。这说明:CPU 并未被取代,只是此前被忽视了。

而且这不仅关乎 CPU 本身。随着 CPU 需求上升,将连带推动整个系统级的需求:
• 内存(CPU 高度依赖 DRAM)

• 服务器

• 存储

• PCB / 载板

• 电源供应

重点不在于 Intel 或 AMD 谁将胜出,而在于:AI 的瓶颈正从“算力”转向“整个系统”——包括数据处理、任务执行、工具整合、系统流畅性等。这些问题,并非 GPU 单方面能够解决。

总结来说,AI 仍以 GPU 为核心,但当应用走向智能体、检索增强生成与工具调用时,CPU 的重要性将被重新提升。真正让 AI “运转起来”的,是整个系统协同工作的能力。

几个基本概念:
• CPU(中央处理器)主要负责流程控制、指令执行与数据调度,更像整个系统的“协调者”。

• GPU(图形处理器)则擅长大规模并行计算,尤其适合 AI 中大量重复的矩阵运算。

发布于 湖南