李想在中国汽车重庆论坛上关于理想在自动驾驶技术的重要突破的演讲。
从人类开车不用学习极端案例得到启发,用端到端代替人工规则。
理想放了 100 万的预训练模型,用于端到端的训练。大概一个月只需要做 10 轮左右的训练,训练卡要足够多,基本上可以完成一个无图 NOA 相同上限的水平。
另外从李想夫人开宝马 X6 和高尔夫 GTI 都剐蹭,但上了宝马驾驶学院开车再也不剐蹭得到启发,用一个视觉语言模型来为端到端兜底,解决泛化问题。
AD Max 有两颗 Orin-X 芯片,正好一个 Orin-X 芯片跑端到端,另外一颗 Orin-X 芯片可以运行一个压缩到大概 20 亿规模的 VLM 模型。
至于如何验证端到端和视觉语言模型是黑盒的问题,理想用一个小的世界模型来考试。
理想会在第三季度向所有用户正式推送全国无图 NOA 的时候,向我们的测试用户推送我们大概通过 300 万预训练模型训练出来的端到端 + 视觉语言模型。
最早会在今年年底,最晚明年年初,理想会推出大概通过超过 1,000 万 clips 训练出来的端到端 + VLM。
理想认为。在现有的计算平台上,带有监督的 L3 级别的自动驾驶是可以实现的。
而且随着这套技术继续演进、算力的增强、模型的加大,理想认为无监督的 L4 级自动驾驶也会在至少三年内可以实现。
发布于 上海
