高飞 26-05-10 09:48
微博认证:至顶科技创始人 AI博主

#模型时代# Anthropic总裁Daniela Amodei斯坦福讲座:文科生如何联合创办全球最重要的AI公司?

Anthropic联合创始人兼总裁Daniela Amodei在2026年5月的斯坦福商学院"View From the Top"演讲中,用将近50分钟回顾了自己从英国文学专业到AI公司掌舵人的职业生涯。

我看了一下,方方面面都讲到了,但是每一个话题都没有那么深入的展开。不过她公开发言并不多,还是分享一下。

一、从文学学位到AI前沿:一个通才的路径逻辑

1、"计划"是后来者的叙事,当时只有三个过滤器

Daniela 2009年从加州大学圣克鲁兹分校英国文学专业毕业,赶上了金融危机后最差的就业年。她描述自己职业路径的筛选标准只有三条:我擅长什么、我对什么感兴趣、什么能产生大的影响。这三条标准把她先导向了国际发展和全球健康领域,然后是国会山的政治工作,最终回到硅谷。

她在国会山工作期间得到了一个关键认知:少数年轻人如果足够拼命,真的能改变世界。这个认知后来把她带到了创业公司。区别在于,创业公司有更多资金,而且不用每周拼80小时。

2、通才型人才被低估了

她自嘲"如果你翻我的履历,你会问这个人到底擅长什么"。没有法学学位,不是计算机科学家。但她认为好奇心和跨领域学习能力是被低估的品质,Anthropic招人时格外看重的也是这些:好沟通、高情商、善良、好奇、愿意帮助别人。

她在Stripe待了将近六年,那时Stripe只有大约40人,她朋友在国会山听说她去做"支付"时的反应是难以理解。这段经历让她学会了和工程师协作,也让她对技术不再恐惧。

3、学技术语言的方法:问到懂为止,同时知道自己的位置

2018年加入OpenAI时,她面对的是神经网络、Transformer、scaling law这些概念。她的方法只有一个:不停提问,直到自己能理解为止。前提是身边有足够耐心回答的人。

同样重要的是"知道自己的车道和他们的车道"。她说自己肯定训练不了GPT-2或GPT-3,但她带来了研究人员不具备的能力。理解自己的比较优势,然后在团队里找到自己的位置,这本身就是一种需要人际智慧和好奇心的技能。

4、如果重来,她还是会选文学专业

快问快答环节被问到"如果回到大学会选什么专业",回答是:还是文学。她在Anthropic办公室的图书馆里重新翻到了Barbara Tuchman的《八月炮火》(The Guns of August),一本关于第一次世界大战起源的历史著作。推荐这本书的理由是:它研究的是一系列个体的人物和性格如何层层叠加,最终导向了一件本质上极其悲剧的事件。个体的决策如何一步步放大,最终酿成全局性的后果,这个问题和她每天在AI领域面对的并没有太大区别。

二、联合创始人的选择:吵架能力比技术互补更重要

1、七个人离开OpenAI,核心驱动力是"跑向某个东西"

2020年12月,Daniela和Dario带着五位联合创始人离开了OpenAI。她说,从外部回看,这个决定好像理所当然,但当时他们非常犹豫。一位朋友兼导师在电话里对她说了一句话:你其实已经知道正确答案是什么了。这句话后来成了她最常引用的建议。

她反复强调,他们是在"跑向"一个愿景,而非"逃离"什么。七个人在OpenAI时都同时做过能力研发和安全策略两方面的工作,这个经历让他们想建立一个从一开始就把安全和责任放在最前面的组织,而不是做到后面再补。这也是为什么Anthropic选择注册为public benefit corporation,一种将公共利益写进公司章程的企业形式。

2、测试联合创始人关系的最好方法:一起去度假

她给出了一个极其具体的建议:在一起创业之前,先一起去度个假,共享一个房间。如果度完假你还想和这个人多待在一起,那就对了;如果你需要再度一个假来恢复,可能就不是好的搭档。

七位联合创始人之间的关系网络极其紧密:Daniela和Dario是兄妹,吵架和和解的经验有将近40年;她认识Jared和Chris超过15年;Tom和Sam曾经是室友;Jared和Sam在斯坦福读博时就一起工作过。大多数人在OpenAI时直接汇报给她或Dario,甚至两个人都汇报过。

兄妹搭档有一个具体的管理优势:他们能对彼此说公司里其他任何人都不敢说的话。这种坦诚在正常的同事关系里几乎不可能建立,但在已经吵了几十年架的兄妹之间是天然存在的。

3、愿景对齐检验:锁在两个房间里各画一幅画

她提出了一个思想实验:把你和你的联合创始人分别锁在两个房间里,各自画一幅"我们要建什么"的图,然后出来对比。如果一个人画了独角兽,另一个人画了鸭嘴兽,那就是以为在做同一件事实际上完全不同的典型情况。

三、AI安全的真实含义:从社交媒体的教训到Mythos模型的选择

1、安全的本质是对技术的"激进责任感"

AI安全在她的定义里,是对所开发技术的一种激进责任感。社交媒体是一个类比:Facebook、Instagram、Snapchat的开发者最初并没有打算引发青少年饮食障碍的大流行,他们只是在优化增长指标。问题在于,当时没有人需要提前思考这些技术的规模效应,因为此前从未有过如此快速的用户增长。

AI公司的特权在于,它们可以站在前一代技术公司犯过的错误之上,提前防范。安全工作涵盖的范围从最宏观的化学和生物武器防范,到用户健康、儿童安全、虚假信息、选举诚信这样细颗粒度的工作。

2、安全与商业回报大多数时候并不冲突,冲突的是时间

企业客户不会想要不安全的模型。他们不会说"我们希望Claude产生更多幻觉"或者"多输出一些有害内容"。所以在相当长的时间里,安全和商业是100%对齐的。

但随着模型能力快速发展,新的张力出现了:模型能做的事情足够惊人,问题在于Anthropic还没有充分理解风险有多严重、所有风险是什么、以及如何缓解。这意味着有时候需要对客户说一句不舒服的话:我们理解你想要这个模型,我们也想尽快交付,但在完成必要的安全修补之前发布它,是不负责任的。

这种思路也延伸到了商业模式本身。被问到用户数据隐私时,她提到Anthropic决定不在Claude中投放广告。理由是AI工具的使用场景和社交媒体本质不同:人们和AI工具的对话,比他们放在Instagram或任何社交媒体上的内容都要私密得多。这种认知直接影响了变现方式的选择。

3、Project Glasswing:最强模型因为太危险而不能公开发布

演讲中提到了Anthropic决定不发布"mythos class model"的事件。后续的公开信息显示,Claude Mythos Preview能够在所有主流操作系统和主流浏览器中自主发现并利用零日漏洞,也就是此前从未被任何人发现过的安全缺陷,其中一些已经存在了十几年甚至二十多年。Anthropic选择不向公众开放这个模型,而是联合12家核心合作伙伴(包括AWS、苹果、微软、谷歌、英伟达、CrowdStrike等),将其用于防御性安全工作,承诺提供高达1亿美元的使用额度。

四、就业市场:AI目前是补充而非替代,但"目前"两个字是关键

1、Anthropic经济指数的发现:互补性技能占主导

Anthropic经济指数的数据显示,当前AI在工作中主要扮演complementary skills的角色,也就是帮助人把工作做得更好,而非直接取代人来做。完全被替代的案例极少,主要集中在客户服务领域。她在台上开了个玩笑:如果你要给Comcast发邮件,大概永远不会是真人回复了。不过五年前可能也已经不是了。

截至2026年3月的经济指数报告显示,已有49%的职业至少有四分之一的任务在使用Claude完成。高经验用户不仅尝试更高价值的任务,成功率也明显更高。但目前从整体劳动市场看,大规模替代尚未发生。

2、软件开发者不会消失,但工作内容会大幅改变

她经常被CEO们以一种半秘密的方式问到:我女儿在斯坦福读大二,她本来要读计算机,还应该读吗?她的回答是:软件开发者仍然会存在,但不会写那么多代码。开发者工作中与产品经理沟通、与客户协作的部分会扩大,而可以被AI更容易完成的部分会收缩。

3、全球南方比发达国家更乐观,但发达国家更焦虑

AI采用存在明显的人口统计学差异:大学学历人群使用更多、男性多于女性,财富和种族维度也有差异。一个有意思的对比是,发展中国家对AI普遍更乐观,将其视为一种拉平差距的机会;而美国、欧洲和部分亚洲地区的人则焦虑更多,他们的态度更接近"我喜欢现在的样子,不想被打乱"。

4、比"就业替代"更深一层的问题:工作和人生意义的关系要被重写了

她认为就业替代只是表层。更根本的问题是,当AI能完成大量日常生产性工作之后,工作、意义和社交生活三者之间的关系需要被重新理解。这三样东西在过去几十年里是捆绑在一起的,未来它们可能会松绑。她没有给出答案,但认为社会需要开始练习适应这种变化。

五、81000人告诉Anthropic的真话:人们既想要AI又害怕AI

1、有史以来最大规模的定性调研揭示了一个悖论

2025年12月,Anthropic邀请Claude用户接受AI访谈员的对话式访谈,80508人参与,覆盖159个国家和70种语言。这是Anthropic已知最大规模的定性研究。核心发现是一个矛盾:人们最喜欢AI的地方,往往也是他们最害怕的地方。比如,重视AI情感支持的用户,同时有三倍的概率担心自己会对AI产生依赖。

她自己也是受益者。从没想过能建一个网站,但用Claude点几下就搞定了,自己做的话大概要花一年,而且做出来也不怎么样。AI让人能做以前做不了的事,这是好的一面。

2、存在一种尚未命名的感受:大脑不需要启动了

但另一面也同样真实。调研中出现了一种感受:和刷手机那种被动消耗不同,这种感受更接近"我本可以去思考这个问题,我本可以自己找到这个想法,但因为AI太方便了,我选择不这么做,直接相信它给的答案"。而问题是,AI给的答案并不总是对的。她在台上直接说:"Claude有时候是错的。作为Anthropic的人这么说有点大逆不道,但这是事实。"

这可能是AI焦虑的深层来源。人类有学习和扩展认知边界的内在需求,AI如果使用得当可以满足这个需求,但如果使用不当则会关闭这个需求。

3、Learning mode与作弊的分野

Claude的学习模式采用苏格拉底式提问法,引导学生思考而非直接给答案。一个尖锐的对比:把作业丢给ChatGPT让它直接回答,那个行为有一个现成的词,叫作弊;而用Claude的学习模式,是像拥有一位了解你、理解你为什么选这门课的私人导师。前者关闭大脑,后者激活大脑。

六、未来最值钱的人类技能:不是诊断能力,是床边态度

如果AI既能帮人做以前做不了的事,又可能让人放弃自己思考,那什么才是人不可替代的?答案出乎意料。

1、医生的案例:AI会取代诊断,但取代不了"被你的医生喜欢"

一个具体的类比:今天我们雇用医生,主要是因为他们的诊断能力。AI会在这方面变得非常出色。但AI做不到的是:看着你、检查你、理解你的感受、让你感觉好一些。

有一批医学文献表明,与医生关系好的患者,临床结果确实优于与医生关系不好的患者。这很难解释,但可能的原因是医生更努力去理解患者的状况,也许会多做一些出乎意料的检查。在AI接管诊断能力之后,这种"床边态度"会变得比现在重要五倍。

2、管理者也不安全,但AI是极好的管理教练

她自嘲说,每个人都觉得AI不会来取代自己的工作,因为自己很特别。她也犯了同样的错误,觉得人们会想汇报给人而不是汇报给Claude。

但她发现Claude在管理辅导方面非常有效。她把多年的绩效评审资料上传给Claude,Claude能发现她自己没注意到的模式:比如某个下属在过去三四年一直在同一个问题上打转,可能需要额外的辅导或者外部教练。反过来,她也把下属对自己的向上反馈上传给Claude。Claude会委婉但直接地指出:"看起来你在这个方面过去一年没有改善,也许你自己也需要找个教练。"

3、育儿场景:Claude帮她度过了如厕训练

她有两个孩子(将近5岁和将近1岁)。她说Claude帮她做过的最好的事情是指导她度过了孩子的如厕训练:有同理心、可操作、甚至还有图示。每次用Google搜索"我的孩子是不是有问题",答案永远是"是";而Claude更平衡、更互动,对不堪重负的父母来说价值巨大。

她甚至说了一句更大胆的话:在她自己的经历中,Claude在复杂病例上给出正确答案的次数比她的医生还多。但她紧接着加了限定条件:即便如此,她也绝不会不经过持证医生就采取行动。Claude有时候是错的,它不了解你,不能检查你。把它当成一个不错的全科医生朋友,而非专科医生。

七、AI泡沫、监管与给下一代创业者的建议

1、高资本支出是真实风险,但收入增速也是VC们从未见过的

被问到AI泡沫的三种含义——估值泡沫、基础设施过度投资、进步速度不可持续——她认为最值得关注的是资本支出风险。训练这些模型极其昂贵,算力稀缺,必须提前很久购买,本质上是对未来的押注。除了谷歌这样手握充裕现金的上市公司之外,对Anthropic和OpenAI来说,这都是一种"计算过的赌注",赌注是未来的收入能覆盖今天的支出。

她用了一个不太常见的词来描述在这类公司工作的感受:harrowing,胆战心惊。如果有人告诉你在这些公司工作一切从容,那要么是谷歌的人,要么没跟你说实话。她用一句话概括了这种张力:如果收入曲线有一天发生变化,那就会有问题。

2、理想的监管是技术公司和监管者合作,而非对立

合理的监管必须是AI叙事的一部分,但她最担心的是这个话题被政治化。"监管坏、创新好"或者"创新坏、监管好"的二元对立毫无意义。技术公司掌握着技术如何被滥用的信息(因为安全团队每天都在看),监管者知道如何建立可执行的框架和制度。两者应该合作。

3、给下一代的两条建议

第一条:做你真正在意的事情。她说这听起来老套到差点不想说出口,但这条建议在事情不顺利、不好玩、很痛苦的时候才显示出真正的价值。你必须能回到原点,回忆起"我为什么要做这件事"。

第二条:做生意和做好事不矛盾。她认为这是过去五到十年才真正出现的新观念。"只有那些冷酷的、让人不舒服的人才能做成生意"这种想法,她认为不成立。做好事的愿望和做好生意之间有明显的正相关。

发布于 新加坡