#模型时代# 黄仁勋、辛顿、李飞飞、Bengio、Bill、杨立昆的三个AI预测。
FT前几天的AI圆桌请到了获得 获得2025 年伊丽莎白女王工程奖的AI六巨头:黄仁勋(Jensen Huang), 约书亚·本吉奥(Yoshua Bengio), 杰佛里·辛顿(Geoffrey Hinton), 李飞飞(Fei-Fei Li), 杨立昆(Yann LeCun), 比尔·戴利(Bill Dally,英伟达首席科学家,斯坦福、麻省理工教授)。
对每个人各自的学术成就提问总结之后,主持人问了三个预测性问题,价值比较高,应之前一位网友的留言要求,我单独完整摘录一下分享,正好是微博限制的5000字。
我觉得比较关键的判断:
1、黄仁勋反对AI泡沫论:互联网泡沫时期,部署的大部分光纤都处于闲置状态,而今天几乎每一个GPU都在运转使用。
2、Bengio谈AI达到人类工作能力的时间:AI规划能力过去六年呈指数增长,照这个趋势,大约五年内就能达到普通员工的工作水平。更关键的是,一旦AI能做AI研究本身,可能解锁一切,所以不能下定论。
3、Dally谈AI的目标定位:问AI何时超越人类本身就问错了。我们的目的是让AI做人类做不了的事——认22,000种物体、解奥数题,让人类腾出手来做真正属于人的事:创造、共情、与人打交道。
4、李飞飞谈当前AI的技术盲区:今天最强的语言模型连最基本的空间智能测试都过不了。空间智能是感知和行动的枢纽,这个领域还是一片待开垦的处女地。
5、LeCun谈泡沫的真正含义:应用层面不存在泡沫,但有个"认知泡沫"——以为靠LLM就能做到人类智能,这不现实。我们连猫那么聪明的机器人都造不出来,缺的是科学突破,不是工程投入。
6、Hinton谈AI超越人类的时间点:20年内AI在辩论中肯定能赢过人类,这点我相当确定。
三个问题:
***
第一个问题(18:30):AI泡沫会破裂吗?
主持人提问:
Nvidia几乎每天都上新闻,已成为全球市值最高的公司。请问您是否担心人们对AI的理解还不够充分,我们是否过于超前了?会不会出现泡沫破裂后的调整?如果不会,相比互联网泡沫时代,人们对AI需求的最大误解是什么?
Jensen Huang:
互联网泡沫时期,部署的大部分光纤都处于闲置状态,而今天几乎每一个GPU都在运转使用。我认为重要的是退一步理解AI究竟是什么。对很多人来说,AI就是ChatGPT和图像生成,这些确实是应用之一。但AI在过去几年已经有了巨大进步——不仅能记忆和泛化,还能推理、有效思考,并通过研究来建立基础。它现在能产生更有价值的答案,做更有效的事情。
现在有很多公司能够建立对其他企业有帮助的业务。比如我们使用的一个叫Cursor的AI编程公司,他们盈利能力很强,我们大量使用他们的软件,非常有用。AI能力的增长带来了两个同时发生的指数级增长:一方面,产生一个答案所需的计算量大幅增长;另一方面,这些AI模型的使用量也在指数级增长。这两个指数增长造成了对算力的巨大需求。
从根本上看,今天的AI与过去的软件产业有什么不同?过去的软件是预编译的,所需的计算量不大。但AI要有效运作,必须具备情境感知能力。它只能在当下产生智能,不能提前产生后再提取——那叫内容。AI智能必须实时产生和生成。因此,我们现在有了一个需要工厂的产业。这就是为什么我提醒大家,AI需要工厂来生产这些标记(tokens)、生产智能。这是前所未有的——计算机实际上成为了工厂的一部分。我们需要数千亿美元的这些工厂,来服务建立在智能之上的价值数万亿美元的产业。
回顾过去的软件,它们是软件工具,被人使用。AI首次成为增强人类的智能,它涉及劳动力、涉及工作,它能完成工作。
所以,这不是泡沫。我认为我们正处于智能基础设施建设的初期。事实上,今天大多数人仍然不使用AI。在不久的将来,我们做的几乎所有事情,每时每刻都会以某种方式接触AI。从今天使用率很低的状态,到未来使用基本上是持续的状态,这个建设过程正在进行中。
主持人追问:
即使LLM的发展路径走到尽头,您认为GPU和您建设的基础设施仍然可以在不同的范式中发挥作用吗?
Jensen Huang:
LLM只是AI技术的一部分。AI是模型系统,不仅仅是LLM。LLM是其中的重要部分,但它们是模型系统。无论我们怎么称呼它,让AI从今天的状态变得更加高效所需的技术,我们还有很多需要开发。
Yoshua Bengio:
我认为我们不应该再称它们为LLM了。它们不再只是语言模型了。它们至少从预训练开始是语言模型,但最近在使其成为代理(agents)方面有了很多进展。换句话说,通过一系列步骤来实现某些目标,与环境互动,与人互动——现在是通过对话,但越来越多地与计算基础设施互动。
技术在变化。与三年前完全不同。我认为我们无法预测两年、五年、十年后技术会是什么样子。但我们可以看到趋势。我正在做的一件事是召集一批国际专家来跟踪AI的发展情况、走向、风险以及如何缓解这些风险。现在在这么多基准测试中趋势非常明确。因为我们在改进技术方面取得了如此大的成功,并不意味着未来会一样。如果预期没有实现,会有财务后果。但从长远来看,我完全同意。
第二个问题(24:30):科技估值是否合理?
主持人提问:
你们其他人怎么看?你们认为估值是否合理,基于你们对技术和应用的了解?
Bill Dally:
我认为有三个趋势可以解释正在发生的事情。首先,模型变得更高效。仅以注意力机制为例,从直接注意力到GQA再到MLA,用更少的计算获得相同或更好的结果。这推动了需求,使原本可能太昂贵的东西现在变得便宜了,可以用AI做更多事情。
同时,模型在不断改进。也许它们会继续在Transformer架构下改进,或者会出现新架构,但我们不会倒退。我们将继续拥有更好的模型,这些模型仍然需要GPU,即使是基于Transformer的。事实上,这使GPU相比更专用的东西更有价值,因为它们更灵活,能更好地随模型演进。
最后,我认为我们在应用方面才刚刚起步。几乎人类生活的每个方面都可以通过AI辅助得到改善——无论是在职业上帮助某人,还是在日常生活中提供帮助。我认为我们可能只触及了最终需求的1%。随着需求扩大,使用量会持续上升。
所以我认为这里没有泡沫。我认为像Jensen说的,我们正在经历多重指数增长,而且我们处于开端,它会持续下去。
主持人:
从某种意义上说,Nvidia处于有利位置,因为即使这个范式改变了,有其他类型的AI和其他架构,你们仍然需要底层的硬件。
Fei-Fei Li:
我确实认为,当然从市场角度来看,它会有自己的动态,有时会自我调整,但如果看长期趋势,不要忘记AI总体上仍然是一个非常年轻的领域。我们走进这个房间,墙上有物理学方程式。物理学已经是一个超过400年的学科。即使我们看现代物理学,AI也不到70年——如果我们追溯到艾伦·图灵,大约75年。所以还有更多新的前沿领域即将到来。
Jensen和Yoshua谈到LLM和代理,那些更多是基于语言的。但即使你对人类智能进行自省,还有更多超越语言的智能能力。我一直在研究空间智能,它真正是感知和行动之间的结合或关键。人类和动物有令人难以置信的能力来感知、推理、与世界互动并创造世界,这远远超出了语言的范畴。
即使是今天最强大的基于语言或LLM的模型,在基本的空间智能测试中也会失败。所以从这个角度来看,作为一门学科、一门科学,还有更多的前沿需要征服和开拓,这会带来更多应用。
Yann LeCun:
我认为从几个角度来看我们不在泡沫中,至少有一个角度表明我们确实在泡沫中,但这是不同的东西。
我们不在泡沫中的意义是,基于LLM有很多应用需要开发。LLM是当前的主导范式,那里有很多可以挖掘的东西。这就是Bill所说的,用当前技术帮助人们的日常生活。这项技术需要推进,这证明了在软件端和基础设施端所做的所有投资是合理的。
一旦我们让每个人都拥有智能可穿戴设备来协助他们的日常生活,如Jensen所说,为所有这些人提供服务所需的计算量将是巨大的。从这个意义上说,投资不是浪费的。
但有一个意义上确实存在泡沫,那就是认为当前的LLM范式可以推进到拥有人类水平智能的想法。我个人不相信这一点,你也不相信。我们需要几个突破才能让机器真正拥有我们在人类身上观察到的那种智能,不仅是人类,还有动物。我们没有像猫一样聪明的机器人。所以我们仍然缺少一些重要的东西。
这就是为什么AI进步不仅仅是更多基础设施、更多数据、更多投资和更多当前范式的开发的问题。这实际上是一个科学问题:我们如何向下一代AI取得进展。
第三个问题(30:00):AI达到人类智能水平需要多久?
主持人提问:
关于人类水平智能的问题,我们时间不多了,所以我想快速问一下,你们每个人认为需要多久才能达到机器智能与人类甚至聪明动物(比如章鱼)相当的程度?我们还有多远?就说年数。
Yann LeCun:
这不会是一个单一事件。能力会在各个领域逐步扩展。在接下来的5到10年里,我们可能会取得一些重大进展,提出一个新范式,然后可能会有进展。但这会比我们想象的时间更长。
Fei-Fei Li:
机器的部分能力将超越人类智能,部分机器智能永远不会与人类智能相同或相似。它们是为不同目的而建造的。
主持人:
什么时候会超越?
Fei-Fei Li:
部分已经实现了。我们中有多少人能识别世界上22,000个物体?这方面的粒度和精确度,答案是不能。有多少成年人能翻译100种语言?
所以我认为我们应该在科学事实中保持细致和务实——就像飞机会飞但不像鸟那样飞。基于机器的智能会做很多强大的事情,但人类智能在我们的人类社会中总会有一个重要的位置。
Jensen Huang:
我们有足够的通用智能,可以在未来几年将技术转化为大量对社会有用的应用。关于——
主持人:
现在已经在做了。
Jensen Huang:
是的,我们今天就在做。所以我认为,第一,我们已经到了那里;第二,答案的另一部分是这不重要,因为在这一点上这有点像学术问题。从现在开始,我们将应用这项技术,技术会不断改进,我们会应用技术来解决很多非常重要的问题。所以我认为答案是这不重要,而且就是现在。
Geoffrey Hinton:
如果你把问题稍微细化一下,问机器何时能在辩论中总是赢,我认为这肯定会在20年内实现。我们还没到那一步,但我认为在20年内相当确定我们会做到。所以如果你把那定义为——
主持人:
在辩论中总能赢过你。
Geoffrey Hinton:
我们可能会在不到20年的时间里实现。
Bill Dally:
我基本认同Jensen的看法,这是个错误的问题。因为我们的目标不是建造AI来替代人类或比人类更好。
主持人:
但这是一个科学问题,不是说我们会替代人类。问题是我们作为一个社会能否建造出这样的东西?
Bill Dally:
但我们的目标是建造AI来增强人类。所以我们想要做的是补充人类擅长的东西。人类无法识别22,000个类别,我们大多数人也无法解决这些数学奥林匹克问题。所以我们建造AI来做这些。这样人类就可以做独特的人类能做的事情,比如有创造力、有同理心,理解如何与我们世界中的其他人互动。我不清楚AI是否会做到这些,但AI可以极大地帮助人类。
Yoshua Bengio:
恕我不能认同这个观点。我看不出有任何理由说我们在某个时候不能建造能做我们能做的几乎所有事情的机器。当然,目前在空间和机器人方面还落后,但在概念上没有理由说我们做不到。
关于时间线,我认为有很多不确定性,我们应该相应地做好规划。但有一些我觉得有趣的数据,我们看到AI在不同时间跨度上的规划能力在过去六年中呈指数级增长。如果我们继续这个趋势,大约在五年内,AI就能达到员工在工作中的能力水平。
现在这只是工程任务的一个类别,还有很多其他重要的事情。例如,一个可能改变游戏规则的因素是,许多公司的目标只是专注于AI做AI研究的能力。换句话说,做工程、做计算机科学,设计下一代AI,包括可能改进机器人技术和空间理解。
所以,我不是说这会发生,但AI在编程和算法理解方面做得越来越好的能力进展非常非常快,这可能会解锁许多其他能力。我们不知道,我们应该真正保持不可知论,不做大胆的声明,因为有很多可能的未来。
主持人总结:
所以我们的共识在某种程度上是,我们认为未来今天已经到来,但永远不会有一个单一的时刻。你们所有人今天的工作帮助引导我们沿着这条路线前进,直到我们达到与这些系统并肩工作的程度。我个人非常期待看到我们将走向何方。如果我们一年后再做这个讨论,那将是一个不同的世界。非常感谢你们加入我们,分享你们的故事,带我们了解这个巨大的革命性时刻。
发布于 美国
