高飞 25-12-04 14:47
微博认证:至顶科技创始人 AI博主

#模型时代# Anthropic CEO谈AI投资的悬崖与就业危机的三层解法

Anthropic是目前硅谷最特别的AI公司。它的创始团队从OpenAI出走,曾主导GPT-2和GPT-3的研发;它是唯一同时拿到亚马逊、微软、谷歌三家巨头投资的AI初创公司;它的CEO Dario Amodei可能是整个行业里最愿意公开谈论风险的人。(也是最喜欢谈地缘冲突的人)。刚刚,Amodei在纽约时报DealBook峰会接受了专访。

一、Anthropic的财务实况:三年10倍增长,但前方是悬崖还是坦途?

Amodei对技术进展毫不怀疑,但对行业的经济层面相当谨慎。他的原话是:"即使技术兑现所有承诺,仍有玩家可能因为时机判断错误而出事。"

先看Anthropic自己的数字。

2023年,收入从0到1亿美元。2024年,从1亿到10亿。2025年预计落在80到100亿之间。连续三年,每年翻10倍。

如果傻傻外推,2026年应该是1000亿?Amodei说他不信,"这个规模上不可能"。但如果保守估计呢?可能是200亿,也可能是300亿。他把这种巨大的预测误差带叫做"不确定性锥形"——不知道一年后是200亿还是500亿。

问题在于,建数据中心等不了你想清楚。

建设周期是1到2年。今天必须决定2027年需要多少算力。买少了,客户流向竞争对手;买多了,收入覆盖不了成本,极端情况就是破产。

具体算一笔账:建1GW算力的数据中心,资本开支大约500亿美元,有效寿命按5年算,每年折合100亿成本。Anthropic今年收入预计100亿左右,刚好够覆盖一年的数据中心折旧。但如果收入增长不及预期呢?

Amodei说他们在用保守策略,瞄准最坏10%的场景做规划。"即使运气很差也能扛得住。"

但他话锋一转:有些公司不是这么想的。

二、谁在"赌一把"?

访谈中Amodei多次用了一个词:yolo。这是硅谷黑话,意思是"人生只有一次,赌一把"。他说有玩家把风险旋钮拧得太远,在做不负责任的押注。

主持人追问:谁在yolo?

Amodei笑着说不回答。但主持人紧接着抛出一组数据:Sam Altman说OpenAI计划2030年盈利,但按他的数字推算,需要在两年内从740亿美元亏损翻盘。

Amodei说他不知道别家的内部财务,只能讲自己的逻辑。

关于"循环交易"的质疑——Nvidia投资AI公司,AI公司再用这笔钱买Nvidia芯片——他认为交易本身合理。AI公司有收入预期但没500亿现金,芯片公司有资本且想锁定销售,双方各取所需。

"问题是规模。如果叠加到需要2027年创造2000亿美元收入才能回本的程度,那就是过度延伸。"

芯片折旧周期也是争议焦点。芯片本身能工作很久,但更快更便宜的新芯片不断出现,老芯片的价值就被稀释了。Amodei说他们做了非常激进的芯片效率曲线假设,"我们认为在几乎所有情况下都会没事。不能是所有情况,但几乎所有。"

这句话的潜台词是:有些公司的假设没有我们保守。

三、企业市场的差异化:为什么Anthropic不用"紧急动员"

Google和OpenAI在消费者市场打得你死我活。就在访谈前一周,Google发布了新模型,Sam Altman在内部发邮件说"code red"——这是谷歌内部的紧急动员暗号,意思是所有人回到工位,全力应对威胁。

Amodei的态度是:与我无关。

Anthropic走的是企业市场路线。给银行做合规审查,给保险公司做理赔处理,给药厂做文献分析。这些场景和聊天机器人完全不同——企业不需要模型"有趣"或"粘人",需要的是准确、可控、能融入现有流程。

"我们不需要搞code red。"

被问到AGI时代是否所有模型都会趋同,Amodei用人类做类比:这个房间里的人都有一般智能,但我们每个人都不一样。通用智能和专业化是并存的。

企业客户切换模型的成本也比想象中高。下游系统已经适应了特定模型的"性格",提示词和交互方式都针对它优化过,换一个模型意味着整条链路重新调试。

编码是目前走得最快的方向。Amodei说他们最新的Opus 4.5在编码任务上"几乎所有人都认为是最好的"。内部已经有员工完全不手写代码了,只让Claude写初稿,自己做编辑。

四、AGI什么时候来?答案是:这个问题本身就问错了

关于AGI何时到来,Amodei给了一个反直觉的回答:他根本不喜欢这个词。

"AGI、ASI这些术语我不知道什么意思。只有一条指数曲线。"

模型不断在所有任务上变好。编程、科学、生物医学、法律、金融、材料制造……没有某个点模型突然"开窍",只是曲线一直往上走。

他用芯片产业做类比。摩尔定律持续了几十年,芯片越来越快,直到任何简单计算都比人脑快。AI模型也一样,只是在智力任务上重复这个过程。

Amodei和他的联合创始人是最早系统研究"规模定律"的人——简单说就是模型越大、数据越多、算力越强,能力就越强。他观察这个规律已经12年,结论是它还在继续有效。

中间出现过各种新技术——推理模型、测试时计算——但本质都是小修小补,没有改变核心逻辑。

"最让我震撼的一点是:用这种简单方式训练模型,它在太阳底下的每一项任务上都变得更好。"

他在一年半前写过一篇文章,用了一个比喻:最终模型会强大到相当于"一个数据中心里装着一整个天才国家"。这个虚拟国家落在哪个现实国家,将决定全球权力格局。

五、硅谷在AI监管问题上撕裂了

硅谷在AI监管问题上分成了两派,各自在组建超级政治行动委员会,推动完全相反的政策。Amodei和Andreessen Horowitz站在对立面。

有人提议暂停所有州级AI监管10年,等联邦框架出台再说。这项提案在2024年夏天和最近一周都试图推进,但因为"非常不受欢迎"而失败。

Amodei的评价是:"就像开车的时候说'我10年不需要方向盘,把它拆了吧'。"

白宫AI顾问David Sacks曾公开批评Anthropic在搞"基于恐惧营销的监管捕获",损害初创企业生态。Amodei的回应是:早在2016年没有公司的时候就在写AI风险论文;Anthropic支持的主要法案对5亿美元以下收入的公司有豁免,根本不影响初创企业。

七、就业冲击怎么办?三层解法

Amodei在60 Minutes节目上说可能有一半入门级岗位消失,引发巨大争议。这次访谈他详细阐述了应对思路。

他说自己谈这些风险不是为了当"末日先知",而是因为"看见地雷才能绕开它"。

第一层:企业内部的选择

每家使用AI的企业面临同一道选择题。

选项A:用AI替代人工来降本增效。比如保险理赔、合规审查这些流程,以前需要一个团队,现在AI可以端到端处理,人员大幅缩减。

选项B:用AI让人类员工10倍杠杆化。AI做90%的工作,人做10%,但因为效率提升太大,反而需要更多人来处理100倍的业务量。

"我们不阻止企业做选项A,但如果能鼓励更多选项B,也许创造的岗位比消失的更多。"

第二层:政府介入

再培训项目不是万灵药,但某种形式的政府支持不可避免。

Anthropic做过一份研究,当前模型已经能让生产力每年提升1.6%,几乎相当于历史平均水平翻倍。更强的模型可能带来每年5%到10%的增长。

"这是一块很大的蛋糕。"如果财富过度集中,税收政策可能需要调整,把增长的红利分给那些不是直接受益者的人。

第三层:重新定义工作

长期来看,一个拥有强大AI的社会必须重新思考"工作"意味着什么。

Amodei引用了凯恩斯1930年的文章《我们子孙的经济可能性》。凯恩斯当时预测他的孙辈每周只需要工作15到20小时。

"有些人永远想全力工作,但社会能不能让工作对很多人来说不再那么核心?让人们在别处找到意义,或者工作更多是关于自我实现而不是经济生存?"

他不主张自上而下的设计。"社会需要自我重构。我们都需要弄清楚如何在后AGI时代运作。这三层解法,从快到慢,从企业能做的到需要全社会共识的,未来几年我们都得一步步推进。"

Q1: AI行业有泡沫吗?

技术层面没有。规模定律经过12年验证,模型确实越来越强。经济层面有真实风险:数据中心建设周期是1-2年,但收入预测的误差带巨大,时机判断错误可能导致某些玩家破产。Amodei明确表示有公司在做不负责任的押注。

Q2: AI公司之间的护城河是什么?

模型有"性格",客户的下游系统已经适应特定模型的行为模式,切换成本远高于预期。企业市场的粘性来自关系积累和定制化适配,消费者市场的粘性来自使用习惯。专注企业市场的公司受消费者端激烈竞争的影响更小。

Q3: AI导致的失业怎么解决?

三层方案。第一层是企业选择用AI创造价值而非单纯替代人力;第二层是政府通过再培训和税收政策进行财富再分配;第三层是社会重新定义工作的意义,让更多人从"为生存工作"转向"为实现自我而工作"。生产力增长的蛋糕足够大,关键是怎么分。

发布于 新加坡