明尼苏达大学发布了一种新的内存:计算随机存取存储器(CRAM)。用于 AI 推理超级省电(节省 1000 倍)。
原理大概理解了一下,就是存储和运算不分离,内存会同时拥有计算功能。
感觉的确有道理,会更适合神经网络的运算。
这东西对于比手机小的可穿戴设备的端侧模型的意义,非常大。。。因为现在限制模型部署到更小设备的主要障碍,不是算力,而是功耗。
而且现在已经有商业公司在预研中了,目前进展最快的是台湾的一家公司。
http://t.cn/A68oKccL
发布于 广东
