从无到有 闲侃汽车辅助驾驶
“脚踩三块铁,到哪都是客”,20多年前开车可是个技术活,眼力好,手脚快,经验足才能有机会开上汽车。同时也说明了,驾驭汽车多么不容易。不像现在汽车功能的丰富多彩,早些年连倒车雷达都需要选配,更别提倒车影像、360°环影了。
后来在20世纪70年代,作为民技术的倒车雷达出现了,倒车雷达解决了部分无视野的盲区探测,但依然存在探测不准、范围小、距离短以及小型障碍物。再后来进入21世纪,汽车开始慢慢普及屏幕和摄像头,倒车影像出现了。有了屏幕看得清,这为倒车提供了极大的便利。
随着科技的发展,汽车越来越先进,开始配备前后倒车雷达,倒车影像也升级为360°环视。近10年的时候,我们的车辆可以自动车道居中行驶,还可以主动刹车、自动泊车、主动避让的功能都慢慢有了,带来人们的不仅是行车便利,更是生活品质的飞跃。
随着特斯拉的入局,辅助驾驶逐渐走走向智能驾驶,全自动驾驶也触手可得。新势力造车企业,除了卷配置,卷服务,智驾能力如何也是卷的重要方向。不久前,理想汽车的OTA更新公告中就提到,理想汽车智能驾驶平台开始向大模型为主的端到端算法架构切换,采用BEV大模型和Occupancy占用网络让感知更精准。
其中,BEV、Occupancy占用网络、端到端算法架构看上去很高大上,那这些词都是啥意思呢?
这里的BEV可不是电动汽车的意思,而是Bird’s Eye View的缩写,即鸟瞰视角技术。BEV将多个摄像头拍摄的图像拼接成一个全景图像的技术,说简单点就是一种感知技术。根据传感器不同,可大致分为为BEV LiDAR点云类,还有BEV Camera图像类,还有BEV Fusion融合类。如纯视觉方案的特斯拉就是BEV Camera,而蔚小理们因为搭载多种雷达和摄像头,就属于BEV Fusion。
举例来说,特斯拉使用8个摄像头采集图像后融合,系统将采集图像通过矫正后,统一输入到神经网络来提取特征,然后通过transformer将这些特征进行关联,之后再投影到一个向量空间之中,最终拿到一张反映周围环境的鸟瞰图。
注:Transformer是谷歌在2017年提出的一种基于注意力机制的神经网络模型。简单的说,就是给电脑一张图片让其识别图片里的内容,并关联融合。
有了BEV后,理论上车辆在陌生环境里,不依靠高精地图也能自主行驶。但这还远远不足,BEV感知无法预测悬垂的障碍物,如开启的车门,于是就有了Occupancy占用网络。
如同字面意思,占用网络就是将世界网格化,定义哪个单元被占用,哪个单元是空闲的。
Occupancy占用网络是基于BEV技术的。BEV将采集的图像输出为2D,而Occupancy占用网络将其升维为3D网格,那么剩下的就很简单了,只要空闲的单位格没被占用,那么就可以通行,智驾适应能力大幅提升。
端到端是end-to-end(E2E),属于深度学习的概念,由英伟达于2016年提出。端到端无人驾驶方案是将自动驾驶系统看作一个黑箱,所有模块神经网络化,训练一个或多个神经网络,从而得到从感知到控制的直接映射,就是将条件反射转化为非条件反射。再用人打个比方,婴儿碰到奶嘴就会吮吸,这是刻在基因里的,无需思考就能做出行动,这就是端到端。
放到智驾上来说,端到端就是车辆通过传感器采集到的原始数据输入神经网络系统,直接给车辆底层控制器输出加速、制动、转向等驾驶指令。跳过了一级一级的处理,大幅度的提高了运转效率。
作为新事物,智驾“有没有”、“敢不敢用”还是“好不好用”,不同厂家因为研发投入以及硬件配置不同,消费者实际体验也区别甚大。简单来说,硬件决定上限,软件决定下限,硬件配置是吸引消费的人的手段,而体验的好坏直接影响用户的口碑。
从趋势上看,未来的智驾可能会分为两类路线——单车智能、车路云协同。单车智能即所有计算均在车辆本地运算后实现无人驾驶。而车路云协同则通过云端服务器对道路、车辆数据采集汇总后,告诉车辆如何行驶。但车路云协同对道路基础设施要求极高,基础设施不佳的道路上,表现远不如单车智能。而且作者觉得,不管是哪一条路线次才能媲美人类驾驶员。
鉴于各个厂家对于智驾的宣传都属于噱头大于实际,各品牌都有智驾状态下出现事故的报道,笔者也无法给出谁家的智驾是“遥遥领先”的答案,我们强烈建议消费者亲身进行体验试驾进行比对,不要盲目相信PPT上的广告词。在实际用车中,也绝对不要放心让智驾来辅助驾驶,方向盘还是握在自己手里才更安全。