#模型时代# 微软首席科学官:700年后,这个时代会有它的名字,AI落地翻译官是一个好工作
2026年2月24日,微软首席科学官Eric Horvitz在斯坦福商学院与院长Sarah Soule进行了一场炉边对话。Horvitz是AI领域的"全栈人物":斯坦福MD/PhD双学位,在微软工作超过30年,创立了斯坦福"AI百年研究"项目,联合创办了Partnership on AI。但我之前似乎错过了他的公开发言。而微软的AI相关洞察,之前基本也是CEO萨提亚、CTO凯文·斯科特、AI CEO 苏莱曼三人讲的比较多。
不过Eric Horvitz老爷子讲的真不错,而且从一个比较大的历史维度来看当下,他是科学家又是产业中人,所以兼具技术和商业思考。大家得空可以看这个视频讲座,出处见图。
他说我们现在这个时代,会载入史册,有一个XXX的时代名字。"我算了一下,700年前恰好是14世纪中叶,文艺复兴的起点。按他的说法,我们正在经历的这场变革,在历史坐标上大致可以和文艺复兴相提并论吧。
因为:我们正通过模型,将人类既有的知识二次挖掘。
一、AI的历史坐标:我们在哪里?
1、700年后回看,这个时代会有名字
Horvitz给出了一个令人意外的时间框架。他说自己经常想象的不是20年后回看今天,而是700年后。"这会是历史书上的一个命名时代,有插图,有注释,有一个名字——虽然我还不确定叫什么。
这个判断的底气来自他对通用技术(general purpose technology)历史的深度理解。蒸汽机1769年左右出现第一台可用原型,但真正改变工业面貌是100年后的事。电力从1880年代开始商用,渗透到生产端又花了数十年。"所以好吧,AI可能比蒸汽机或电力快——毕竟我们已经通电了,"他开了个玩笑,但随即认真地说:即便20年后回看,我们仍然处于"早期部署、早期实施"阶段,变革远未收敛。
2、跟蒸汽机和电力不同的一点:这次的"基础物质"本身还在变
这是Horvitz回应一位MBA学生关于投资节奏的提问时说的。蒸汽和电力作为底层技术相对稳定——蒸汽机发明之后,蒸汽本身的物理原理不会变,变化的是你怎么用它。但AI不一样,技术本身还在快速演进:今年的模型和去年的模型能力差距巨大,明年又会跳一级。你还没搞清楚怎么用当前的AI,它自己就变了。对投资者来说,这既是机会也是风险的来源。被问到"钱该不该投",他的态度很直接:"投。会有失望,也会有大赢。"但他也承认担心出现Gartner炒作周期式的"过早退缩和失望",不过他判断"火堆里有足够的余烬",能维持适当的投资水平持续前进。
3、别小看当下的"焦虑讨论热"
Horvitz特别提到,蒸汽机和电力时代没有出现今天这样的"治理焦虑"——没有人坐在会场里讨论我们是否需要规范从飞机上扔燃烧弹这件事。而今天AI领域的广泛讨论,"令人暖心(heartwarming)"。这些焦虑和讨论本身就是这个历史时期最独特的特征之一。
二、给MBA学生和职场人的实操建议
Horvitz对斯坦福GSB学生的建议不是泛泛的"学AI",而是极具操作性的路径拆解。但在给建议之前,他先纠正了一个常见的认知偏差。
1、AI不等于大语言模型——别被表面的同质化骗了
Horvitz 1990年在斯坦福拿到博士学位,那时候AI在他眼里是一幅"丰富的织锦,一个技术星座(a rich tapestry, a constellation of technologies)"。他承认深度神经网络带来了某种表面的同质化,但强调这个领域未来只会更加分化。他的原话是:"不要只想着Claude或ChatGPT或Gemini怎么用这个用那个,要更深入地了解技术本身,去发现深度思考、决策、管理、监督和创造力方面的机会。" 只盯着聊天机器人看,你会错过整片森林。
2、去做"AI落地翻译官"
他观察到一批正在崛起的创业公司在做一件事:深入某个行业,拿到真实的数据和业务流程,看哪些环节AI已经产生了正向效果(他用了一个词:early sparks of positive gain),哪些环节遭到了排斥(repulsion),然后把这些洞察沉淀为行业专用的数据集和微调模型。
"这是一个巨大的转型需求,需要你真正深入理解某个具体领域,然后搞明白怎么做应用——而这些应用只是长期变革中很小的一块。"
所以他给学生的建议链条是:找到你的热情 → 在那个领域深耕 → 思考AI的相关性 → 跨学科思考 → 去看那些正在超越炒作、真正做整合和应用的人。
3、别只问"AI能做什么",要问"AI应该做什么"
这是Horvitz和Sarah Soule共同强调的。光有技术知识不够,还需要领导力——理解在组织里推行AI的过程中,什么该做、什么不该做、如何负责任地落地。
4、当前最稀缺的人才画像
他的原话值得记住:"带着人工智能知识和管理与商业技能来到谈判桌前的人,将获得溢价。" 这不是说每个人都要去学训练模型,而是在理解技术边界的前提下,能做好洞察、管理、决策和流程再造。
三、人机协作的实操框架:怎么用好这些工具
这部分Horvitz讲得非常具体,来自他在微软研究院超过30年的一线经验。
1、"可行性边界"(edge of doability)思维
他在微软研究院当主管时经常问团队一个问题:"你们真的在可行性的边界上工作吗?"意思是,在几个月前还被认为不可能甚至不会被考虑的问题空间里探索。
他发现,大语言模型在被推到这个边界时反而表现得特别好。"人们总说早期这些工具会'幻觉'(hallucinate)。没错,它们是随机引擎。但当你把它们推到未知空间,让它们用随机引擎帮我们探索,我们人类来当过滤器——我们有审美判断、有领域理解、有方向感——这种组合就很强大。"
他甚至提到跟诺贝尔物理学奖得主一起坐下来用这些工具的经历:在前沿地带,你分不清是幻觉还是洞察,但这恰恰是最有价值的区域。
2、别让工具替代思考过程
他的姐姐是UNC Asheville的文学教授,2023年GPT发布后感恩节带着怒气回家,双手叉腰质问他:"你对我的学生做了什么?"无论她怎么强调,大一学生就是直接用AI写作文,不再深度思考。Horvitz认同她的判断:学习写作大概率就是学习思考的一部分。
这引出了他对下一代AI工具的设计方向:不能只依赖人类自己保持批判性思维,工具本身应该被设计成"理解人类目标"的——知道什么时候该站出来辅助,什么时候该退后让人自己想。
3、人类要做好"驾驶员"
他用了一个很形象的说法:今天人们学会用GPT/Claude/Gemini来正确地prompt,本质上是在学习当驾驶员——带着非常人性化的目标、偏好、好奇心和方向感来使用系统,让系统为你引入新的效率、模拟能力、可能性空间的扩展。核心永远是人在引导和驾驭。
四、AI对人类福祉的5个具体预测
Horvitz在这部分从"宇宙级视角"讲到了具体时间表,每个预测都附带了条件和推理。
1、AI的长期意义可能类比于语言的发明
他在密歇根大学做Tanner讲座时提出:AI技术在数千年到数万年的尺度上,可能具有类似语言的历史意义。语言让人类从小群体狩猎采集者变成了能进行深度集体思考的文明。他同时也说,他更愿意把这个领域叫"计算智能"(computational intelligence)而不是"人工智能",因为"计算智能同样适用于生物神经系统和机器,我们可以一起走很远。"
2、神经退行性疾病将在我们有生之年迎来AI驱动的突破
他明确说了:预计在我们有生之年,至少一种以上的神经退行性疾病——阿尔茨海默症、ALS、FTD——会出现基于AI洞察和疗法的重大突破。
3、多种癌症在未来十年变成慢性病或被治愈
"我希望在未来十年内,看到多种癌症变成人们所知的慢性病,或者被治愈。" 他的信心来源:我们现在能设计分子、设计蛋白质、更好地理解生物网络——这些在没有AI工具之前是不可能的。
4、教育将出现真正的个性化突破
他举了一个特别生动的例子:每个人都曾遇到过某个让自己卡住的数学题,可能正因为那个题从此远离了数学。而AI辅导系统能帮你"突破那个点"——用个性化的方式,根据你的具体卡点带你前进。这种系统还能帮助劳动力快速重新学习技能。
5、国际关系和人际沟通也会被AI改善
这个预测更具前瞻性:AI系统可以帮人们更好地沟通、理清观点、找到共识。从个人层面到国家层面,他期望看到"一场关于我们为什么在这里的文艺复兴——优化目标、促进共情。"
五、深度伪造:一场攻防战的十年演进
1、从实验室demo到全民危机,他只用了一场演讲就预判对了
2015年前后,Horvitz看到斯坦福计算机系团队的一个demo:用AI生成一段政客的视频,让这个政客说出他从未说过的话——嘴型、表情、声音全部以假乱真。当时是实验室里的"酷炫演示",谁都没当回事。他做了一个演讲,说这东西一旦普及会怎样。九年后的今天,一切应验。
2、他在微软推动的解决思路:给内容"盖蜡章"
问题的本质是:你在网上看到一张照片或一段视频,怎么知道它是真实拍摄的,还是AI生成的?Horvitz在微软内部给团队出了一道题——能不能建立一套系统,让相机拍下的内容从拍摄那一刻起就带上一个密码学签名,一路传递到你的屏幕上时可以验证"这个签名没被动过"?
3、但他马上让团队攻击自己的方案
好方案出来了,Horvitz做的下一件事不是庆祝,而是让内部团队做红队攻击——专门找漏洞。2026年2月19日微软发布的那份54页报告就是攻击成果。
核心发现是:蜡章可以被反向利用。比如一张真实的新闻照片——底特律的人群在迎接Kamala Harris——有人可以通过篡改或剥离蜡章信息,让你怀疑这张真照片是AI伪造的。反过来,AI生成的假图也可能被伪装上看似合法的认证。报告的结论是:单一方案不够,需要把密码学签名和不可见水印叠加使用,才能实现较高的可信度。
4、他自己的小实践:"100% human crafted"
Horvitz让微软设计师给他做了一个小图标——一个圆圈写着"100% human crafted",他会贴在自己精心撰写的邮件末尾,让收件人知道这封邮件确实是他亲手写的。在一个AI生成内容泛滥的时代,"证明人的努力"本身变成了一种新需求。
六、AI安全的转折点:从模型安全到社会规范
1、大语言模型最大的技术短板:概率校准
一位管理科学与工程硕士生问了AI评估和安全的问题,Horvitz给出了一个非常精准的回答:我们不知道怎么对大语言模型进行概率校准(probabilistic calibration)。 这些系统在决策场景中被使用,但它们不会告诉你"我对这个回答有72%的把握"。如果能做到这一点,我们就能把AI输出纳入自己的效用函数和成本收益模型,理性地决定多认真地对待它们。
2、模型公司终将变成"电力公司"
他做了一个类比:当模型变得足够强大,生产模型的公司就像发电公司——你不能要求发电公司保证所有用电场景的安全。到那时,安全的重心必须转向治理、规范、行业惯例、法律和监管——就像我们有了电工资质认证和保险实验室标准一样。"我正在让自己准备好,去帮助完成这个转型。"
3、医疗AI的"大秘密":模型不可移植
在一次美国国家医学院会议上,Horvitz分享了一个"大秘密":医疗AI模型不具备可移植性。你不能把A医院的模型直接搬到B医院就指望它好用。这不是新发现——他们在贝叶斯网络时代就发现了这一点。所以需要针对自己的数据集、自己的患者群体做专门验证,甚至需要随机对照临床试验来评估AI工具在不同医疗场景中的真实价值。
4、平均性能不是安全——Tesla类比
这一点他讲得很尖锐。在医疗和自动驾驶领域,你不能只看平均的灵敏度和特异度就下结论。他拿Tesla举例:统计数据说Tesla整体让道路更安全,但有人马上会指出,"那辆车钻到卡车底下去了,这种灾难性的失败人类司机绝不会犯"。FDA在审查医疗AI时也是这样拆开看的:一边是平均表现,一边是安全边缘。社会对边缘灾难性故障的容忍度极低,这些极端失败必须被单独识别、刻画和解决,不能被均值掩盖掉。
七、自动化时代的人性价值:导师制不会消失
1、150+实习生的"导师网络"
Horvitz在微软指导过超过150名博士级实习生,其中包括斯坦福的Yuri Levic、Michael Bernstein等知名学者。他60岁生日时,只邀请了历年的实习生,整个房间坐满了人,他看着每张脸都能回忆起两个半月的合作项目。他说这不是单向输出:"我从他们身上学到的,可能比他们从我身上学到的更多。"
2、Caring Economy(关怀经济)会崛起
"在我更乐观的时刻,我相信无论AI工具多么强大,人们反而会更加关注什么让我们成为人类。"他预测一个"关怀经济"的崛起——人与人之间的照护、协作、创造性合作会变得更有价值。同时,手工技艺和匠人精神也会回归,相关的学徒制和导师制会更加重要。
3、他个人最看重的"产出规则"
在一次Microsoft的Foo Camp讨论中,主题是"在AI时代保护和培育人类能动性",每个人分享自己最看重什么。Horvitz的回答是:"我永远珍视指导他人这件事。这是我的产出规则之一。AI不会把它夺走。"
