硅谷陈源博士 24-06-24 23:02
微博认证:美国佐治亚理工学院计算机科学博士,NVIDIA(英伟达)主任工程师

人工智能领域的大牛 — 马毅教授在中英文社交媒体推特(@YiMaTweets)和微博上(@毅马当闲)都很活跃,我一直在关注。

马毅教授和深度神经网络先驱、图灵奖得主Yann LeCun是质疑大模型能带来通用人工智能的代表人物。

马毅教授不相信只是通过现有大模型和Scaling Laws(规模定律)能实现通用人工智能,也就是用更多数据和更大算力训练更大参数的模型,就可以走向通用智能。

他认为现在的深度学习网络本质上都在做压缩,从图像、声音和语言等高维信号里,找到表示数据间相关性和规律的低维结构,但压缩不会走向通用智能或意识。

马毅的观点是现有大模型有很多知识,但知识不等于智能,本质还是依靠记忆和统计,并没有因果和逻辑推理能力。

马毅一直认为现有的大模型训练是黑盒方法,盲目试错,不仅效率低,还不安全。马教授认为学术界做研究如果只是简单改进现有的大模型和方法,没有创新,小打小闹没意思。

马毅推崇可解释的白盒方法,去年底他的团队发布了新的白盒模型CRATE,在GitHub上已经有上千颗星了,http://t.cn/A6pKTH2t。

对马毅教授理论感兴趣的同学可以看看这个采访和读读相关论文,

1. http://t.cn/A6QJkaY0。
2. ”On the Principles of Parsimony and Self-Consistency for the Emergence of Intelligence”,http://t.cn/A6aNN6KN。
3. ”White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is?”,http://t.cn/A6WrDaqQ。

最后说一下我的看法。

我是理想的实用主义者。一方面我同意马毅教授关于现有大模型缺乏推理能力,简单的靠算力,参数和堆积训练数据并不能实现通用人工智能,理论上需要继续创新和发展。另一方面,我认为现有的大模型能学会新知识,找到各种关联性,还是可以有很广泛的应用前景和价值的。

其实很多问题的答案取决于”智能”的定义,最终是个哲学问题。在工程技术领域,我们需要现实主义一点,能解决问题就行[嘻嘻]。

#人工智能##通用人工智能##大模型##大模型不会产生通用人工智能##马毅# http://t.cn/RqzsTMj

发布于 美国