小鹏的深度视觉神经网络 XNet 2.0 不仅能看得远,还能看懂字。
这让 XNGP 具备理解限时公交车道、收费站前是 ETC 车道还是人工车道,以及文字待行区和非机动车道的能力。
能读懂文字对于城市 NOA 相当重要。上海有很多路口不用绿灯,而是用文字显示「直行车辆允许进入待转区」。有些地方非机动车道和机动车道没有标识,也用文字来表示。
等收到更新了看看在这种路口会怎么开,以及会不会在能走的时候走公交车道。[笑而不语]
小鹏开启无图 XNGP 和 AI 代驾的基础是感知能力和时空理解力大幅进步。感知范围提升 200%,并且能识别清扫车、地锁、红绿灯读秒等类型的物体。
之前遇到红绿灯读秒变灯会导致急刹,看看新版本体验如何。
XNet 2.0 也融合了纯视觉占用网络,新版本将提升矮路沿、细柱、稀疏绿化带的绕行能力。
这些都是静态障碍物,路上还有很多会动的交通参与者。人开车时候会在平衡安全和通行效率,而现在的智驾更多还停留在保证安全的阶段。
但昨晚小鹏发布的「面向全场景智驾的终极架构」叫 XBrain,XNet 只是 XBrain 的一部分,还有一部分叫 XPlanner。
XPlanner 看名字就知道是规划路线的,主打的就是能像人一样理解周围的环境和车辆意图,实时变通调整,生成最佳的路线。
比如有车或人挤占了我的直行路线,能不能在保证安全的情况下绕行。
这点大家在很多「民间小视频遥遥领先」见了很多,新版本看看小鹏在城市里的真实场景下表现如何。
XNGP 能有这么快的迭代,是因为小鹏具备的全栈闭环和仿真能力。
感知闭环让能够搞定的场景数量更多,比如小鹏用生成式大模型,直接在已有视频内生成极限场景,以 AI 生成的方式代替数据模拟,更有效地完成数据消化和模型训练。
数据处理效率体现了开发过程的中后台能力。小鹏每一行代码改动和每一次模型升级都进行端到端仿真验证。绝大多数问题在云端仿真被发现并拦截住,降低路测的压力。
小鹏表示,目前 XNGP 已在「全国范围内」具备支持城市智驾的技术能力。
但依据小鹏对功能量产的测试验收流程,将依照严格的工程测试完成验证后,以分批开放城市的方式,向所有 XNGP 用户全量推送。
推进工程测试的城市优先级,将以用户覆盖率和行程需求来排序。
明年,小鹏 XNGP 的目标是打通收费站和小区门口,补上这两段路之后,离完成「全程都能开」就差小区内部路了。
另一个目标是砍掉两个前向角雷达,进一步降低成本。X9 就没了两个前向角雷达,但激光雷达还在。更远大的目标是,走出中国,走向世界。
#1024小鹏汽车科技日#
