繆斯高 26-03-18 21:14
微博认证:科技博主

理想在GTC甩出MindVLA-o1,直接把车的空间认知拉到新高度——一套模型既能开着理想L9穿梭城市,也能操控机器人完成精细操作,这下谁还敢说自动驾驶就是智能汽车的终点?

我觉得这次最狠的突破,是把“看见3D”变成了“读懂3D”。以前的方案要么是只有平面信息的鸟瞰图,要么是只有形状没有意义的点云,就像蒙着眼睛摸东西,知道有东西却叫不出名字、猜不出动向。

MindVLA-o1不一样,它能从一段视频里直接抠出三维位置、点云数据和语义标签,相当于给车装了一双会“思考”的眼睛,能看懂“这是个要过马路的行人”“那是个会移动的非机动车”。

李想那句“小孩接球”的比喻太戳人了:我们学接球不是靠多装几个眼睛,是靠一次次失败里练出的速度和距离直觉;车的智能也一样,堆传感器只是基础,让模型在海量数据里长出对三维世界的“感觉”,才是真的在靠近智能的本质#理想全能辅助驾驶来了#

发布于 山东