在NVIDIA GTC 2026这样的技术场合,车企讲故事很容易,但真正把故事讲成“能落地的产品”,其实并不多。吉利汽车这次把舱驾融合拿出来,关键不在“说了什么新概念”,而在于它开始试图回答一个更现实的问题:当智能座舱和智能驾驶都走到一定阶段之后,下一步到底该怎么进化。
过去几年,行业一直在堆配置。座舱越来越聪明,语音助手越来越像人;智驾越来越强,能开更多路。但本质上,它们还是两套系统,各干各的。你在车里说一句“去接孩子顺便买个汉堡”,语音助手能理解,但执行链条是断的——导航是导航,驾驶是驾驶,中间需要人去补齐。
这次吉利的思路,其实是把这个“断点”抹掉。用WAM世界行为模型把座舱和驾驶揉成一个统一的大脑,让“理解需求”和“执行动作”不再分家。说白了,就是让车不只是听懂你,还能替你把事干完。
超级Eva的变化挺有意思,它不再只是一个“更聪明的语音助手”,而是开始往“代理人”的方向走。能记住你的习惯、理解模糊表达、甚至感知情绪,这些听起来很AI,但真正的价值在于,它开始具备“替你做决定”的能力。比如规划路线、选择途经点、联动智驾,这些过去需要多步操作的事情,被压缩成一句话。
而G-ASD 4.0这边,本质是在补齐“能不能做”的问题。双Thor芯片、1400TOPS算力、5颗激光雷达,这些硬件堆料当然重要,但更关键的是大模型带来的决策方式变化——从“规则驱动”变成“类人推演”。在无图园区、复杂路况这些典型长尾场景里,它不再是按既定逻辑执行,而是更像人在现场判断,这才是体验能不能跨过去的分水岭。
把“会想”的Eva和“会动”的G-ASD合在一起,吉利其实是在赌一个方向:汽车不再是功能叠加,而是一个完整的智能体。你不需要再关心每一个功能模块,而是只需要表达需求,剩下交给车自己完成。
首发落在极氪8X身上也不意外。极氪这条线,本来就是吉利体系里最适合承接新技术的品牌,它既有高端用户对体验的敏感度,也有相对更激进的产品节奏。
当然,舱驾融合这件事,说起来容易,真正难的是稳定性和边界控制。一个系统既要理解人,又要控制车,本质上对安全冗余、系统协同提出了更高要求。行业里不少厂商也在讲类似故事,但大多还停留在“能演示”的阶段。
所以这次吉利更值得关注的点,其实不只是技术本身,而是它明确给出了“量产上车”的时间表。如果极氪8X最终交付的体验,能接近现在描述的这套逻辑,那这件事的意义就不只是一次技术发布,而是把“AI定义汽车”从概念,往现实又往前推了一步。
#大v聊车##吉利发布舱驾融合关键成果#
