#蔚来车祸事件是谁的责任#
这个事情让我想起来Uber 2018年在美国的自动驾驶致死事故。当时搭载了Uber自动驾驶系统的沃尔沃在没有驾驶员监管的情况下撞上了一个推着自行车过马路的行人。
后来NTSB美国国家运输安全委员会的调查结果是:
1.在发生事故6秒前Uber就发现了这个障碍物。
2.但是一开始被识别为未知物体,接下来被识别为车辆,再接下来被识别为自行车
3.障碍物识别在不同类型之间跳转,最后作为未知情况没有及时响应导致了碰撞
4.反倒是相对机械的沃尔沃AEB系统在碰撞前1.3秒就要触发紧急制动,但是因为Uber屏蔽了沃尔沃量产车的AEB功能最后直接撞上了行人
这个和当年特斯拉把翻倒的白色大货车识别成天空一样,哪怕我们有强大的传感器,也需要有更强大的传感器融合和识别算法才能准确响应所有情形。可惜,目前哪怕是神经网络算法,其实也是基于概率来做决策的,而且非常依赖大量的数据做模型训练。
现在ADAS系统的物体识别远没有达到“人工智能”的水平,大部分还是使用“概率学”+“统计学”原理进行判断。“统计学”用大量实际道路数据告诉模型有哪些可能性,而“概率学”则告诉模型最可能正确的判断是哪个。
但终归“统计学”无法覆盖所有奇葩的例子,比如以前Uber事故中横向推着自行车行走的人类,以及翻倒在路面上的全白大货车;而“概率学”出不出错,终究只是一个”概率“而已。激光雷达的出现只能提高识别的精度和可靠性,但依旧无法解决上面“人工智能”的终极问题。
在常规的驾驶工况中“自动驾驶”更加机械化的条件判断逻辑以及不会疲劳的电脑可以降低事故率,但是一旦出现需要“复杂智能”的场景,人类会是更可靠的“传感器”和“执行器”。所以在机器真的和人类一样智能前,请不要完全相信它。
