#模型时代# 50%概率2028年实现AGI,哪些工作最危险?|DeepMind联合创始人的三层框架与时间表
Google DeepMind官方播客最新一期,主持人Hannah Fry对话联合创始人、首席AGI科学家Shane Legg。Shane是"AGI"这个词的推广者之一,早在2009年,当大多数人还把通用人工智能视为"疯子边缘"的话题时,他就公开预测2028年有50%概率实现AGI。十六年过去,他没改过这个数字。
这期播客里,Shane深入讨论了AGI的定义框架、当前AI的能力边界、以及未来十年社会将经历的结构性变革。他的坦率程度让人意外——不是那种"可能会、也许吧"的官方口径,而是直接给出时间线、给出判断标准、给出对各行各业的具体预测。
关于AGI,其实大家非常关心的一个话题是,哪些工作最危险、哪些相对安全? 根据Shane Legg的判断,最危险的是纯认知工作:如果你的工作完全可以用笔记本远程完成,AI就能进入这个领域。顶级律师、金融专家、软件工程师都在这个范围(无论现在薪水有多高)。相对安全的是需要物理在场的工作(水管工、电工),以及需要"人"这个身份本身的工作(网红、个人品牌)。
一、AGI不是一条线,是三个台阶
Shane提出了一个三层框架来定义AGI,解决了业界定义混乱的问题。
1、最小AGI(Minimal AGI):能完成普通人能做的认知任务
这是第一道门槛。判断标准很简单:如果AI在某个认知任务上失败了,而这个任务是你期望普通人能完成的,那它就还没到。反过来,如果你把同样的任务给一个普通人,他也会失败,那就不能算AI的问题。
"我喜欢这个标准,因为如果设得更低,AI还在做人们能轻松完成的事情时就失败了,感觉没到位。如果设得更高,很多人自己都做不到那些要求。"
2、完全AGI(Full AGI):覆盖人类认知的全部光谱
普通人能做的事只是人类智能的下限。还有爱因斯坦发明相对论、莫扎特谱写交响曲这种非凡的认知成就。当AI能达到人类认知的全部可能性,才算"完全AGI"。
3、超级智能(ASI):超越人类认知的上限
Shane承认这个概念很难精确定义,但方向是清晰的:拥有AGI的通用性,但在各方面都远超人类能力。
4、为什么其他定义不够好?
主持人提到了几个流行的AGI定义:Humanity's Last Exam(2500道跨学科题目的测试)、厨房测试(能在陌生厨房胜任厨师)、还有一个是"用10万美元赚到100万"。
Shane对赚钱那个定义特别不满意——太狭隘了,是一种非常经济学视角的看法。也许你可以搞一个交易算法在市场上赚到钱,但那就是它全部能做的事了。"AGI里最有意思的是那个G,是通用性。"
任务清单式的定义也有问题:也许AI能通过你列出来的所有任务,但在某个你没想到的、普通人都能做的基础认知任务上翻车。那感觉还是不对。
二、当前AI是什么水平?答案是"参差不齐"
Shane拒绝用"已经是AGI"或"还差得远"这种简单判断。现实要复杂得多。
1、已经远超人类的领域
语言能力是最明显的。当前模型能说150种语言,没有人能做到这一点。通用知识同样惊人——Shane举例说,他问AI关于自己在新西兰长大的那个小镇的事情,AI居然知道。
2、仍然落后的领域
持续学习是个大问题。人类入职新工作不需要一开始就什么都会,可以边干边学。当前AI做不到这种长时间的技能积累。
视觉推理也是短板。AI能识别猫和狗,但让它判断画面里红车和蓝车哪个更大,它就开始犯糊涂——因为要理解透视关系,要知道蓝车看起来小可能只是因为它更远。
还有图形推理:给AI看一个节点和边组成的网络图,让它数某个节点有几条边,人类会逐个点看、心里默数,AI不擅长这种注意力转移和计数。
3、这些短板能解决吗?
Shane的判断是:没有根本性障碍。有些问题需要更多特定类型的数据(比如视觉推理),有些需要新的算法架构。比如持续学习,可能需要某种情景记忆和检索系统,让AI能记住具体经历过的事情,而不只是抽象知识。"我们有思路,各项指标都在持续改进。"
三、怎么测试AI是否达到了最小AGI?
Shane提出了一个两阶段测试方案。
第一阶段是标准测试集:收集大量认知任务,每个任务都有人类典型表现的基准。AI必须全部通过,任何一项失败就意味着不够"通用"。
第二阶段是对抗性测试,说白了就是找茬:组建一个专家团队,给他们一两个月时间,允许他们查看AI内部结构,目标就是找到一个"普通人能做、但AI做不了"的认知任务。如果团队找到了,AI就没通过。如果团队挖空心思也找不到,那基本可以认为达标了。
"因为这个失败案例已经难到连专家团队花几个月都找不出来了。"
四、如何让超级智能"超级道德"?
这是Shane现在最关注的问题。他提出了一个叫"System 2 Safety"(系统二安全)的思路,借用的是Daniel Kahneman的双系统理论。
1、为什么需要系统二?
面对复杂伦理困境,人类不能只靠直觉。你知道撒谎不好,但如果坏人来抓某个无辜的人,撒谎能救命,这时候撒谎反而是对的。这种判断需要推理,不能只靠规则。
2、AI现在能做这种推理
现在的"思考型"AI可以展示推理链(chain of thought)。给它一个有伦理成分的问题,你能看到它在分析情境、权衡后果、应用道德原则。
3、关键优势:可观测、可扩展
如果这套推理机制做得足够严谨,AI可能比人类更一致地应用伦理标准。因为人会情绪化、会偏心、会累,AI的推理过程是可以检查的。而且随着AI能力提升,它的伦理推理能力也可能同步提升——这是"如果不能阻止超级智能出现,至少让它超级道德"的核心逻辑。
还有一个好处:能看到AI的推理过程,就能区分意图和结果。人类对"故意伤害"和"无意伤害"的道德判断是很不一样的——有人故意撞你和不小心碰到你,感受完全不同。如果AI在某个棘手情境里做了有负面后果的决定,但我们能看到它的推理链,确认它是在认真权衡、试图做对的事,我们可能会接受这个结果。但如果它是故意的,那就是另一回事了。
4、AI能真正理解人类伦理吗?
主持人追问了一个根本问题:AI又不像人类那样生活在世界里,它能真正"接地"到人类伦理吗?
Shane的回答有三层。首先,没有单一的"人类伦理"——不同文化、不同地区的规范和期望是有差异的,AI需要理解这些差异。其次,当前模型通过吸收全球数据,其实已经学到了相当多这方面的知识。第三,随着AI从纯聊天系统变成能行动的agent,再变成有身体的机器人,它会越来越多通过交互和真实经验来学习,与现实的连接会越来越紧。
5、当前的安全措施
DeepMind会测试模型是否会帮助制造生物武器、是否会帮人黑入系统。如果发现模型可以被诱导做这些事,就是问题。根据发现的能力级别,会有对应的缓解措施,可能包括不发布模型。
发布后还会持续监控。"如果发现失败案例超出可接受范围,可能需要回滚、停止。"
Shane还说了一个现实主义观点:如果你去做手术,外科医生告诉你"100%安全",作为一个数学家,你知道他在说谎。没有什么是100%的。我们能做的是测试、监控、权衡收益和风险——而不是追求不存在的绝对保障。
五、为什么超级智能一定会来?
Shane从物理学角度给出了一个很难反驳的论证。
人脑是一个移动处理器:重量几磅,功耗约20W,神经信号频率约100Hz,信号传播速度约30m/s——大概是骑自行车的速度,因为是电化学波在传导。
数据中心呢?功耗可以到200MW,通道频率可以到100亿Hz,信号以光速传播,每秒30万公里。
在能耗、空间、带宽、信号速度这四个维度上,数据中心比人脑高出六到八个数量级——换句话说,差距是一千万到一亿倍。人类智能不可能是上限。
"我们已经看到机器在特定领域超越人类:汽车比人跑得快、起重机比人力气大、哈勃望远镜比人看得远。我认为认知领域也会出现同样的情况。"
六、时间表:2028年最小AGI,十年内完全AGI
Shane的预测从2009年就没变过:2028年有50%概率实现最小AGI。
完全AGI呢?"大概三到六年后。"也就是说,十年内实现完全AGI。
他把当下比作2020年3月——专家们在喊"指数曲线要来了",但大多数人还在酒吧看球。"人们很难相信真正的大变化会发生,因为大多数时候'狼来了'最后都没来。但有时候确实会来。"
七、未来几年会发生什么?
Shane预测的是渐进但深刻的变化。
1、AI从工具变成劳动力
"未来几年,AI写的代码占比会上升。以前需要100个软件工程师的工作,可能只需要20个人配合先进AI工具。"
这不是科幻,是生产力的结构性转移。
2、哪些工作最危险?
一个判断标准:如果你的工作完全可以远程完成——只用笔记本、键盘、屏幕、摄像头、麦克风——那它本质上是纯认知工作,AI可以进入这个空间。
最贵的工作往往最危险。顶级并购律师、金融高手、高级机器学习工程师——这些高薪认知工作首当其冲。
3、哪些工作相对安全?
需要物理在场的工作。Shane举例说水管工:即使AI认知能力发展很快,机器人技术跟不上。就算机器人能当水管工了,价格竞争力也需要很长时间才能超过人类。
还有一类是需要"人"这个身份的工作。比如网红——观众知道背后是一个真实的人,有特定的人格,这本身有价值。
4、社会需要重新设计
当前的经济系统是"用脑力或体力劳动换取资源获取权"。如果AI能做大部分认知工作,这套系统就不适用了。
"蛋糕会变大很多,不是商品和服务不够的问题。但我们需要认真思考后AGI经济怎么运作、后AGI社会怎么组织。"
Shane去英国罗素集团(顶尖大学联盟)副校长会议上讲过这个话题。他的观点是:AGI会影响所有学科,因为几乎所有领域都依赖人类智能。教育、法律、工程、数学、城市规划、文学、政治、经济、金融、医学……每个学院每个系都需要认真思考"有了廉价、丰富、能干的机器智能,这个领域会怎样?"
他的印象是,太少人在做这件事。
八、会有意识吗?
Shane和团队找了世界上研究意识问题的顶级专家。答案是:没人真正知道。
当他给专家描述一个具体场景——一个具身的AI,住在机器人身体里,能学习、能整合多感官信息、能记住自己作为个体在世界中的历史、还会谈论自己的意识——专家们的回答是"大概不是"或"大概是",但都加了一句"我不确定"。
Shane确信会发生的是:有些人会认为AI有意识,有些人会认为没有。在缺乏公认科学定义的情况下,这种分歧一定会出现。"我们怎么应对这个?"——这本身就是个需要回答的问题。
发布于 中国台湾
