犀小莉 24-06-22 17:49
微博认证:科技科幻博主

为什么大模型的耗电都要上核电站了,而人脑只需要20瓦?答:存算一体结构。

即便是最新的英伟达GPU算力服务器,核心的GPU芯片的基本结构,也是一堆高速存储单元围绕着一颗高性能计算单元的组合。一旦开始工作,就要把放在存储单元上的内容搬到计算单元上来做对应的矩阵运算。

实际工作中,算力单元90%计算(以及相应的能耗),都用来搬运存储单元上的内容,而不是实际计算。“搬”数据听起来比做计算简单,实际上消耗了大部分能量。所以,即使英伟达在制裁要求下,只卖阉割版的算力芯片进来,对算力并没有实质影响,实际上是多买几块GPU的问题。

再进一步,在算力单元内部,一定程度上也是计算能力和存储(暂存)分开的,于是还有一级能耗大部分用于计算单元内部存储调度的问题。

而人脑的结构上有一个至今还没有被芯片成功模仿的特性,即神经元本身在具备计算能力的同时,与之相关的知识内容也保留在神经元结构中。光这一个特性,就让人脑在进行运算时,就没有把几百亿个参数搬来搬去这么一个费劲的工作。所以,大模型要接核电站才能继续升级,而人脑只要一口米饭就能琢磨相对论,要是来一罐可乐,简直就要过年……

理解现有支持大模型的GPU结构和人脑(大脑)结构的差距,也就可以预见,要在大模型这条路上继续往前走,算力芯片的结构还需要根本性的改造。否则,要么在制程上向1纳米以下继续挺近,这条路很快就会到尽头,再细下去就要面对材料分子结构了。要么核电站,人造聚变堆,戴森球……喂不饱AI的需求。看来看去,还是得回归仿生学,模拟人脑这台充分进化的思考机器才有未来。[并不简单]

发布于 浙江