《哈萨比斯:谷歌AI之脑》:值得强烈推荐的书
刚看完这本《哈萨比斯:谷歌AI之脑》(英文书名THE INFINITY MACHINE, 无限机器),先简单说下直接感受:
这本书非常精彩,既有优秀的叙事水准、流畅生动文风,又有在广泛访谈和文献阅读基础上的专业性,是本值得强烈推荐的书。
虽然是以哈萨比斯作为传主,但这本书的内容可以理解为这十几年来AI发展简史,写的是群像,只是采用了哈萨比斯的视角,来自略显安静的伦敦,远离硅谷的喧嚣和资本的狂热,专注于科学研究和技术进展。
说它写的是群像,指的是这些当今AI领域声名显赫的人,他们之间的关系可以绘制出一张关系图谱,所做的贡献、所处的技术位置、观点的分歧、关系的远近,都可以从这本书里提取出来。
因为AI已经形成的巨大影响力和绝对重要性,看到哈萨比斯这些曾经的先行者和如今的核心人物,会感觉他们身上有一层闪亮的光环。但好的传记文学通常会通过冲突来营造叙事节奏,让你不忍释卷。我理解贯穿全书的至少有以下四种冲突:
一是科学使命感和商业现实性的冲突。这部分内容可读性很好,主要反映在哈萨比斯初创DeepMind的经历中。作为一家以使命感驱动的科学研究类初创企业,他的主要任务之一是筹款,为了维持企业存续和研发所需资源,经常得考虑是不是开发一款游戏或者量化模型去炒股赚钱。他决定将DeepMind出售给谷歌的主要动机之一就是想摆脱这种无休止的筹款压力。
在做一名象牙塔里的科学家和实现AGI这样的宏伟目标中,后者无疑更有吸引力,也更具挑战性。哈萨比斯迎接了这场挑战,某种程度上也成功了,甚至还收获了2024年诺贝尔化学奖。这里面他的坚持和妥协,他一手打造和坚守的具有使命感的企业文化,他在组织攻克技术难题时的“突击队”式集中攻关以及揭榜竞赛式的多元竞争,这两种方法论,很值得创业者们琢磨。
二是技术发展和安全风险的冲突。今天我们正在热议的AI带来的就业冲击等,他们在十多年前就讨论过,并且已经准确预测到了,这是他们第一次尝试构建外部安全与伦理委员会来对AI可能的安全风险进行约束。但实践证明,因为人性的弱点、利益的冲突等原因,这种外部机制失败了。OPENAI的故事告诉我们,建立内部约束机制也并不成功。随着竞赛加速和白热化,这种担心与日俱增,但目前还没有有效的约束机制,只能说是走一步看一步。
有段话我印象很深,我们从历史得出的经验是,技术进步会破坏旧的就业结构,但更会创造新的更多的就业岗位,但AI的冲击可能不是过往经验能够复制的,因为它是对人类智能的全面超越,它取代的是人,不仅是现有的职业,将来出现的职业很可能AI依然能够超越人类。
三是不同技术路线选择的冲突。这方面的写作很见功底,需要梳理和理解这十几年来存在的各种技术路线分歧。贯穿全书的主要是深度学习和强化学习之间的竞争,两者之间存在竞合关系,可以简单理解为“数据时代”和“经验时代”之争,一段时间内某个方向会占主导,但不久又会发生逆转。
这部分很值得细读,可以说是普通读者理解AI的很好科普书,简洁、清晰、专业。书后的注释很有价值,类似文献索引,关于AGI领域的重要论文、访谈都可以据此查找原文阅读。
四是企业间主导AGI的竞赛冲突。这部分是以谷歌和OPENAI之间的竞争为主线叙述的,也就是这个阶段大众可能才开始密切关注AGI的加速竞赛。其实,至迟在2013年,关于AI的人才竞争已经开始了,硅谷已经砸下重金争抢科学家,杨立昆等人大体都是这一阶段与硅谷巨头签约。更早一些,哈萨比斯等人已经预见到了AGI发展可能的路线图和时间表,这方面不得不佩服他们的远见。但由于竞赛的白热化,哈萨比斯还是有些遗憾,在安全机制方面还没有准备好,“就仓促地进入了人类AGI时代。”
这部分有一个小细节让人读来忍不住大笑。“你把他空投到一个满是食人族的岛上,5年后再去看,他会成为国王。”这是OpenAI CEO奥尔特曼的一位导师对他的评价。这个圈子对奥尔特曼存在明显的鄙视链,大概认为他不是一个科学家,而是一个马基雅维利式的政客,过于热衷权力。
最后,看完这本书,我还挺喜欢哈萨比斯这样的科学家型创业者:高度的使命感、真正的全力以赴。他的追求——更深入地理解我们的心智,相信也是很多人的追求,也是我这些年来通过读书想更多了解的目标。他实现这一目标的路径我也基本认同,所以,我很早就告诉孩子,要了解宇宙和人类大脑的秘密,一定先学好数学,然后去学习物理学和神经科学。现在还要加上一句,从小就学会使用AI。#生活手记#
