杨学志_5G创新 24-05-03 15:30

M7事故几天了,我的群里也讨论了几天。 我的群是一个高知群,其他的都是小事情,讨论的重点在AEB。

我的第一反应就是AEB不成熟。 一辆洒水车,不是什么稀罕物,静止或者低速行驶,大白天的,这是最简单的场景。 大嘴是我的老领导,他说华为AEB各种场景都是第一,即使是陌生障碍物,华为AEB都能识别,更不要提经过训练了的。 但是M7事件明显打脸了。

我还在华为的时候,出于安防的需要,华为就开展了人脸识别的研究。 华为手机有AI拍摄功能,能识别人脸,花草,月亮,实现重点聚焦和渲染,是一个具体应用。

大家可能意识不到,能够识别不同的物体,是人工视觉最基础的研究。 前述的识别人脸等场景,是限制场景下的识别。 最早的人工视觉,就是识别0~9十个阿拉伯数字。 而智驾所需要的识别,是开放场景的,是最难的场景。

上了高速公路,场景已经极大限制了,没有行人,自行车,小孩,猫狗,塑料袋,垃圾桶。所以,很多的智驾算法在高速上很好使,但是到了闹市区,就超出了能力范围。

M7的这次事故,等于1+1=3。在最简单的地方犯了错误。

由于AEB的基础是对目标的准确识别,而这个问题并没有解决,所以目前的AEB都是噱头。 但是,这里面很大的迷惑性。

但凡组织各种测试,比拼,AEB都可以大显神通。 原因刚才已经说了,测试比拼的是限制场景,一个静止障碍物,一个横穿马路的电动车,等等。 参试厂商对这些场景进行特定优化,没有不通过的。

但是上了路就完全不同了。 因为识别能力没那么高,所以会引起误警和漏警,这是一堆矛盾。 降低误警率,必然提高漏警率。 从概率上看,紧急情况是小概率的,如果误警多了,误刹车很多,用户体验很不好,投诉很多,影响销售。 而紧急情况概率很小,AEB不动作影响也不大。所以厂家对AEB采取的普遍策略就是,能不刹车就不刹。 所以,M7的这次事故,在最应该刹车的情况下也不刹车,反应的就是这种倾向。

从这起事件我能看到的是,智驾的基础算法差得还很远,悠着点吹吧。

发布于 北京