#模型时代# 诺奖级研究和模型半年一个版本如何共存:Google DeepMind的多线AI投资法
Google DeepMind是一个很难归类的组织。一方面,它做出了AlphaFold这样的基础科学突破,CEO哈萨比斯(Demis Hassabis)拿了诺贝尔化学奖;另一方面,它在模型竞争中越打越凶,逼得OpenAI亮起红色警报。
昨天,Gemini 3.1 Pro发布,又刷新了几个榜单。
所以,Google DeepMind是如何让长短期目标共存的?正好,Big Technology Podcast前天刚放出来和Google DeepMind COO Lila Ibrahim、Google SVP James Manyika的访谈。主讲的内容,就是Google DeepMind组织、产品管理。
我读完的一个体会,还是家底厚,无论是资金家底还是人才密度。Transformer论文出自Google,OpenAI的第一任首席科学家伊利亚·苏茨克维(Ilya Sutskever)也是从Google出走的。就在前天,欧洲史上最大种子轮融资诞生——红杉资本领投10亿美元,估值40亿美元,创始人David Silver也是AlphaGo的前主程序员,去年底刚从Google DeepMind离职,在伦敦创立了Ineffable Intelligence,目标是构建"超人类智能"。
但是,又不能都归功于家底厚,微软家底也厚,但除了投资OpenAI,和Azure的AI云投资之外,目前没有两眼的成果发不出来。
具体大家看整理的笔记吧。
对了,Google的一条AI算力路线也是太空数据中心,马斯克这个赛道的头等对手。
一、Google DeepMind怎么运转:现代Bell Labs的管理哲学
Lila Ibrahim 用三个坐标定位了DeepMind的组织模型:Bell Labs的黄金时代、阿波罗计划的政府工程、以及皮克斯的创意文化。共同点是找到最好的人,然后给他们空间。
1、"告诉方向,不告诉方法"的研究管理
DeepMind的做法是设定宏大的研究议程(比如蛋白质结构预测、天气预报、生成式AI),但不规定具体怎么做。Lila的原话:"We take really ambitious research agendas but not telling people how to do it." 这跟很多科技公司把研究员拉到产品线上做短期交付的趋势形成反差。DeepMind之所以能留住人才,正是因为保留了深度研究的空间。
2、跨学科团队是核心竞争力
DeepMind刻意让生物伦理学家、计算机科学家、神经科学家坐在一起。Lila认为"magic happens"的地方就是学科交叉处。这不只是口号,AlphaFold的突破本身就是生物学问题用AI方法解决的典型案例。
3、哈萨比斯的"时间判断力"
什么时候继续探索,什么时候暂停,什么时候加码——这是DeepMind的核心节奏。Lila举了一个例子:过去几年DeepMind一直在做learning science(学习科学)的基础研究,直到2024年哈萨比斯判断"Gemini足够好了",才把积累的研究成果注入Gemini产品。这种耐心等待技术成熟再整合的能力,在当下"relentless shipping"的行业氛围里很少见。
4、自上而下和自下而上并存
哈萨比斯负责战略级判断,但组织里充满了自己提出方向的研究员。Lila说她八年前加入时就感受到这种双向驱动。跟OpenAI"内部多个创业公司"的模式不同,DeepMind更像是一个有统一使命感的研究机构,同时允许个体探索。
一个有趣的侧面:主持人问Sundar的McKinsey背景是否影响了Google AI的这次中央化重组,Lila笑着说"you have a former McKinsey person here"——她自己也是前麦肯锡人。这至少说明DeepMind的管理层不是纯研究背景出身,有咨询式组织设计的基因。Lila还提到她在加入Google前曾在风投行业工作,过去她觉得VC是"最令人兴奋的地方",因为每天接触有疯狂想法的创业者。但Google内部这种探索文化让她觉得比VC还刺激,而且这种文化渗透在组织的每个角落。
二、Gemini作为"发动机":Google AI的中央引擎模式
三年前Google Brain和DeepMind合并,形成了一个统一的AI创新引擎。James Manyika 描述了这个结构的运作方式。
1、Gemini不是"分发"给产品线,而是协作共建
Lila特别纠正了一个说法:不是把模型"farm out"给其他Google团队,而是从一开始就跟产品团队紧密协作,理解需求,在模型构建阶段就考虑具体场景。结果是Gemini发布后能立即部署到搜索、Workspace、Gemini App等所有产品线,没有延迟。
2、每五到六个月一次迭代
Google现在进入了一个"relentless shipping"的节奏,Gemini模型大约每半年更新一代。James说这是过去三年最大的变化——以前Google被批评"afraid to ship",现在已经进入快速迭代循环。
一个有意思的细节:Sam Altman在年底接受采访时说,"如果Google早点把我们当回事,他们会碾压我们,现在他们是一个formidable competitor。" 这话从竞争对手嘴里说出来,本身就说明Google的shipping节奏确实变了。
3、Gemini之外的并行赌注
James还专门点名了几个跑在Gemini主线之外的项目:Genie在构建world models(世界模型),是一个相当有野心的方向;另外有团队在为Waymo自动驾驶专门优化模型。再加上从DeepMind和Google Research孵化出的Co-scientist(AI科学发现工具),这些项目都会进入Labs进一步测试和迭代。DeepMind的portfolio远比外界看到的"Gemini + AlphaFold"要宽。
三、Google Labs复活:30个实验同时进行的创新工厂
三年前Sundar Pichai重启了Google Labs,目标是用最前沿的研究打造"AI-first"的实验产品。James说任何时候Labs里大概有30个实验在同时跑。
1、NotebookLM的诞生故事
最初只是一个叫Tailwind的小项目,四五个人做的。核心idea很简单:你把自己的资料(论文、书稿、笔记)扔进去,AI基于你的内容回答问题,而且给出引用——你可以点击引用直接跳回原文。
催化剂是作家Steven Johnson,他有从90年代开始积攒的笔记和书稿草稿,他想要一个工具能把这些东西全部倒进去,然后跟它对话:"我1997年在想什么?那个草稿写了什么?"
后来加入的Audio Overviews(音频概述)功能让产品真正爆发。起初Jeff Dean只是想在开车上班时听论文摘要,团队意识到"听两个人讨论一个话题"比"看一段文字摘要"更容易学习——这就是为什么做成了两个主持人对话的播客形式。
产品能力还在快速扩展。James提到一个自己的使用场景:他需要处理来自100多个国家、不同语言的论文,全部扔进NotebookLM后直接跨语言交互。现在除了音频播客,还上线了Video Overviews——可以生成带图形和幻灯片的视频概述。
2、Flow:让电影人教Google做产品
Google视频生成工具Flow的关键转折也来自用户反馈。最初版本团队自己觉得可以了,但找来真正的电影人试用后,filmmakers说:"你这个不行,我需要能一个镜头一个镜头地构建,然后把它们拼接起来。" 场景化的分镜拼接功能就是这么来的。
Labs的方法论很清楚:研究突破 → 做成粗糙原型 → 找真实创作者测试 → 根据反馈重做。
Labs里还有一些让主持人很眼馋但尚未开放的实验。Disco的逻辑特别有意思:你打开一堆浏览器标签页,它自动推断你想干什么,然后生成一个定制web app。主持人举了个周末计划的例子——Disco会生成一个地图标注各个活动地点,你选择日期后自动筛选出那几天有什么可去的。另一个是面向传统中小企业的建站工具Pomelli,企业主跟它对话就能搭建web presence,目标用户不是科技型创业公司,而是更传统的小商户。
3、20%时间依然存在
Labs里大约80%的项目来自Labs团队自己,剩下20%真的来自公司其他部门的"20% time"项目。James举了个例子:Google Research的某人本职工作跟教育无关,但利用个人时间做了"Learn Your Way"这个工具,后来进入了Labs孵化。DeepMind内部也有研究员自主发起项目的传统,比如Project Ithaca——一位研究员出于个人兴趣,做了一个能给古代碑文断代、填补缺失文字、翻译的AI系统。
四、AI教育:把学习当作"一等科学问题"来对待
这是Lila最“泄密”的话题。Google三年前就决定把learning science(学习科学)作为一个一等科学问题来研究。
这里有必要解释一下什么是learning science。它不是"学习方法论"的花哨说法,而是一个正式的跨学科研究领域,专门用实证方法研究"人到底是怎么学会东西的"。这个学科可以追溯到1980年代的认知科学革命——当时研究者开始用认知心理学和AI的方法建模人类思维过程,自然就产生了一个问题:既然我们更懂大脑如何工作了,能不能用这些发现来改善学习?1991年,西北大学创建了全球第一个Learning Sciences博士项目,同年第一届国际学习科学大会(ICLS)召开、《Journal of the Learning Sciences》创刊,这个领域正式成型。
Google说要把learning science当作"一等科学问题",本质上是在说:我们要把过去三十多年这个学科积累的实证研究成果,跟大语言模型的能力结合起来。
1、数据先行:85%的学生和81%的教师在用AI
Google的调研发现,18岁以上学生中85%在使用AI,教师中81%在用——远超全球公众66%的使用率。而且约80%的学习者认为AI对自己的学习有帮助。
2、Learn LM:不给答案,教你拆解问题
Google跟全球教育专家合作开发了Learn LM,核心逻辑是guided learning(引导式学习)——AI不直接给答案,而是带你一步步拆解问题。2024年把这套方法论注入了Gemini App。
一个反直觉的发现:某学区跟Google合作后发现,学生在准备考试时会主动使用guided learning功能认真学习,但赶11点前交作业时就不会用。于是学区做了个实验——增加考试频率,改成每周测试。结果学生使用引导学习的时间窗口变长了,实际学习效果提升。
这个案例的启示是:AI教育工具不能简单叠加到旧流程上,需要重新设计整个教学工作流。
Lila还提到一个值得警惕的信号:AI使用的分化有时跟性别相关。有些学生因为怕被认为作弊而不敢用AI,这种顾虑在不同性别群体中表现不同。她没有展开细节,但作为Google内部调研的发现,这个信号值得关注。
3、个人故事:AI如何改变阅读障碍孩子的信心
Lila有一对双胞胎女儿,其中一个有阅读障碍(dyslexia)。传统教育体系对这样的孩子并不友好。但当她的女儿把AI融入学习——用它拆解数学题,把脑中混乱的文字整理成连贯表达——"我从未见过她有这样的自信。" Lila把这个观察推广到更大范围:全世界有多少学生因为身体或认知差异被教育系统抛下?
4、教师端:每周省10小时
北爱尔兰的一个试点项目中,教师用AI工具后平均每周节省10小时。教师用便利贴记录省下的时间怎么用——有人回到家庭,有人开始为班上30多个不同学习水平的学生制作差异化教案。这才是AI在教育里的正确角色:不替代教师,而是释放教师去做人跟人的交互。
五、前沿科技:量子计算、材料科学和天气预报
1、量子计算比你以为的快得多
Google的Willow芯片实现了一个标志性突破:完成一项基准计算(RCS)只用了不到5分钟,经典超级计算机需要10的25次方年。但James说真正的突破不是这个数字本身,而是below threshold error correction(低于阈值的纠错)——随着量子比特数量增加,错误率反而下降。这是量子计算走向实用化的关键转折点。
2024年底的另一个里程碑:用量子计算模拟分子自旋动力学(quantum echoes),这是第一次有实际用途的量子计算结果,成果登上了Nature封面。关键在于这不只是理论计算——Berkeley的同事用NMR实验数据在实验室里独立验证了结果,形成了"量子计算+物理实验"的双重确认。James的判断是5年内会看到量子计算的实用应用。
2、材料科学:从4万种到40万种稳定晶体
DeepMind的材料科学项目一口气把已知的稳定晶体从4万种扩展到超过40万种,这些新材料正在实验室中被测试。应用场景包括电动车的更轻更持久电池、超级计算机的超导体等。Lila说这个领域还很早期,但属于那种"解锁一个根节点问题,就能打开整个研究领域"的工作。
3、天气预报:提前6天预测洪水,覆盖20亿人
Google的天气预测项目已经从实验室走到了现实世界。关键数据:洪水预警如果能提前6天以上发出,联合国估计可以减少约一半的损失。Google两年半前在孟加拉国试验了河流洪水预测模型,现在已经覆盖150个国家、20多亿人口的居住区。同时还在跟美国国家飓风中心合作,能提前15天预测50条飓风可能路径。
六、Project Suncatcher:把AI训练搬到太空
最后一个话题是最疯狂的。James用一个思维实验开场:想象100年后我们怎么训练AI?考虑到训练所需的算力和能源,答案显然是在太空——太阳的能量是地球能源的100万亿倍,而且24小时不间断。
所以Google启动了Project Suncatcher,计划把TPU芯片送入太空做训练。2027年的里程碑是完成首批太空训练运行。
主持人Alex提到苏茨克维的一个观点:如果要实现AGI,可能需要在全球铺满数据中心。但如果数据中心在太空,地球可以留给人类。
