以理想汽车为例,理想在OTA 6.1.0开启端到端智驾方案的内测,其采用了「系统1 + 系统2」的双系统设计。
其中系统2主要是一个VLM视觉语言模型,参数规模达到22亿(2.2B),而VLM运行的频率大概在3 - 4赫兹。
光是VLM视觉语言模型在OrinX上的部署,理想就花费了大量精力进行模型压缩和运行优化,而这只是智驾大模型上车的初级阶段。
一位AI从业者告诉我们,真正意义的大模型参数规模在10B以上,智驾系统对实时性的要求高,系统运行的频率至少要保证至少10 - 20赫兹。
智能驾驶和智能座舱在围绕大模型的开发方式上达成共识,而这都指向了更强的、为AI大模型优化的下一代计算平台。
在高算力的车载计算平台高度稀缺的背景下,Thor成为大模型上车「全村的希望」。
——————————-
我在想单 orin 做端到端大模型,真的可以吗?
#新能源大牛说#
发布于 上海
