08/22/2023

Tech Talk|主动安全,“刹住”才是最好的保护

车辆的安全性能,除了取决于车身材料的强度和结构设计的合理性,主动安全配置也起到了关键作用。相对于碰撞后的被动保护,提前识别和预判风险,避免碰撞发生,是更为有效的安全应对方式。得益于第二代技术平台领先的智能化能力,蔚来所有车型均具备强大的主动安全能力,能够在多种复杂场景下,完成对碰撞风险的识别和刹车控制。在刚刚结束的中国国际智能产业博览会2023i-VISTA智能网联汽车挑战赛中,蔚来ET5T获得110km/h复杂场景极限刹停成就奖。

如何在110km/h高速行驶的状态下,实现碰撞风险的远距离预判,从而安全刹车?本期Tech Talk,我们邀请到了蔚来自动驾驶研发团队的Vance.于,为大家深度解析ET5T极限刹停场景背后的强大安全实力。


感知系统够猛

一套完整的自动刹停动作,大概需要经历以下几个步骤:首先,车辆的感知硬件要提前识别到路面障碍的存在;其次,系统在对收集到的信息进行判定后,给出刹车指令;最后调动车辆的制动系统进行刹车。

作为极限刹停操作的第一步,车辆的感知硬件,在识别路面潜在风险时,起到了关键性的作用。传统行车辅助系统的感知硬件,通常布置在保险杠、前进气格栅或中央后视镜基座附近,视野盲区较大;多采用配置较低的200w像素摄像头+毫米波雷达的硬件组合。因此只具备非常基础的感知识别能力,仅可对单独的车辆或者行人等简单场景和障碍物目标进行短距离监测。传统行车辅助系统的感知模型也不具备针对性数据训练的能力,识别后系统无法稳定追踪。稍一遇到复杂场景,如车辆和行人近距离重叠,或者是车辆处于高速行驶状态时,感知系统就无法监测到障碍目标,导致车辆的制动功能无法及时、稳定地做出响应,事故也就很难避免。

以ET5T在本次挑战赛中面临的极限场景举例,在110km/h障碍物刹停场景下,车辆系统要在130m以外的距离,提前监测到目标并对多源传感器的信息进行融合和跟踪,才能对车道前方静止的人车重叠障碍,实现稳定刹停避撞。

那日常遇到110km/h极限刹停场景的概率大吗?其实真不少。

无论是高速,还是城区的高架和地面道路,都会遇到故障车辆在路上抛锚停放的情况。这时故障车辆的驾乘人员很可能会下车,进行一些诸如打开后备箱取物、摆放警示三角板的动作。如果后方车辆正在同车道行驶,且驾驶者因分心或其他原因没有提前干预车辆进行制动,那么很有可能因为减速不及时而发生碰撞事故。

得益于蔚来全系车型标配的Aquila 蔚来超感系统,ET5T拥有33个高性能感知硬件,能对车身周围的目标障碍进行更加精准、及时的识别。其中,ET5T车顶瞭望塔包含了一颗超远距高精度激光雷达,行驶过程中激光雷达会向目标障碍发射激光束,以接收目标反射回来的激光信号,通过计算激光信号的往返时间,来探测目标的位置、速度等特征量。通过大批量、多场景的数据训练,激光雷达能够准确识别复杂场景、异型障碍物场景、以及远端场景下的类别、位置及动态参数信息,从而在110km/h远距离人和车重叠场景中,可预先监测到距离自车230m的前方静止车辆。

激光雷达的众多优势,使其不仅能在主动安全中发挥重要作用,更是实现高阶智能驾驶不可或缺的感知硬件。

  • 点云稠密度,高达每帧90000+点

  • 高分辨率,ROI分辨率0.1°(业内通常为0.2°),非ROI分辨率0.2°

  • 1550nm波长,点云探测距离最高可达500m。以10%反射率计算,ROI*内监测距离可达250m(业内通常为150-200m),ROI外监测距离可达150m

  • 抗干扰能力强,能够弥补在恶劣天气、黑暗光线等条件下其他传感器(例如摄像头)的性能损失,起到多源感知冗余的效果

*在机器视觉、图像处理中,被处理图像中用户或者算法关心的区域被称为ROI,例如:人脸,车辆,移动物体等。在进行图像处理时,可以仅对ROI进行运算和传输以减轻负载。

融合系统够快

传统视觉模型对障碍物的监测存在很多短板,比如多个摄像头的关联难度高,监测效果差。仅能够完成对较大物体识别的任务,但对VRU目标(弱势道路使用者),也就是行人、自行车、摩托车这样尺寸相对较小的目标,识别和对运动方向的预测精度就比较差。

激光雷达和摄像头的多源感知融合方案,可以通过两者同时收集的数据,实现更好的感知效果,为系统决策提供更多有用的信息。但这也在某种程度上带来了关联难度的攀升。在信息的后处理中,数据关联是基于3D欧氏距离和3D IoU*来判断的。而视觉预测的位置并不稳定,导致与激光雷达预测的3D位置不一致,数据难以关联和融合。同时,不同摄像头的帧与帧之间对于物体3D预测一致性也相对较低,导致对于物体位置的感知抖动较大。

*IoU(Intersection over union)两个区域重叠部分面积占二者总面积的比例,用于衡量两个区域的重叠程度。

那么,蔚来是如何解决这个问题的?

自Banyan2.0.0起,蔚来全面投入使用BEV感知模型。得益于瞭望塔式传感器布局,蔚来的Aquila 蔚来超感系统,是业界唯一用一个BEV网络来统一车上所有的感知模型,实现多源传感器信息深度融合,持续稳定跟踪目标的量产方案。无论是截断、遮挡,还是行人和自行车,都可提高物体3D监测预测的精度,并提供动态物体的速度、加速度、角速度等时序信息。

目前占据栅格已经在Bayan2.0 实现并使用,在功能以及环境模拟中不能事先定义类别的特殊交通元素,会在占据栅格里进行统一处理,作为整体环境信息的一部分给到自动驾驶系统进行判断。通过大批量、多场景的数据训练,该套系统还能够准确识别远端障碍物的类别、位置及动态参数信息。不只是简单的识别物体,对于复杂场景、异型障碍物场景。即便在110km/h复杂场景中远端人和车的近距离重叠,BEV仍然具备优良的识别能力,可以轻松实现精确的感知。

脑子运算够活

激光雷达、800万像素高清摄像头和毫米波雷达等33个高精度传感器,如同ET5T的千里眼和顺风耳,会按照各自固有的时间点和频率输出感知信息;面对每秒8个G的海量数据,还得依靠ET5T的超级大脑——Adam 蔚来超算平台,其拥有4 颗 NVIDIA Orin X芯片,算力高达1,016TOPS,具备超级图像处理流水线、超高带宽骨干数据网络和热备份冗余设计。

Aquila 蔚来超感系统可准确识别多类别的交通参与者以及通用障碍物,Adam 蔚来超算平台则结合自车的动态信息,把多源传感器信息融为一体,追踪预测行动轨迹,做出精确的控制指令,并在整个执行过程中进行博弈,实时调整自己的控制策略,在紧急状况给出最合理安全的控制策略,让车辆做出合适的响应和控制。举例来说,融合算法需要将下述信息按照一定频率,进行稳定、一致、准确的输出。

要做到融合算法的稳定、一致、准确的输出,需要克服诸多挑战。比如外部输入的延迟差异导致的不确定性。激光雷达扫描时间、模型推理时间、算法后处理时间、信息链路传递时间等等,会导致结果延迟。而摄像头也一样,曝光时间、模型推理时间、信息传输时间等等,会导致摄像头结果的延迟。

这些客观条件,会导致融合算法获取不同源头的模型结果有时间上的差异,这就可能造成上游输入的信号并不按照先来后到的顺序进入系统。面对原始观测产生的结果信息和送入融合优化算法的信息在时间上的差异,一些过晚送入的原始观测信息,需要由算法来进行判断是否舍弃。因此对感知信息的调用,工程化阶段相较于理论上的输入输出,要复杂的多。

有了上游提供的环境信息,功能的决策和规划控制模块能够根据功能策略,生成最佳控制方案。在110km/h障碍物刹停场景中,一方面需要对车辆进行横纵向控制:横向持续平稳的控制车辆居中行驶,同时纵向请求整车减速,整车执行器及时响应减速请求,保证车辆最终平稳的刹停,避免碰撞。另一方面,对驾驶员进行人机交互提醒,及时告知驾驶员当前的车辆意图,并提醒驾驶员注意接管。

肢体情商够高

到了最后“那一脚”的时候,我们也为平稳刹车设定了两个体验目标。在确保安全的前提下,用合理的刹车力度和刹车距离,尽可能达到“无惊无险”的安心舒适状态。

首先,刹车时机精准。在系统选目标后,决策模块判断障碍物风险,规划模块进行合理的行为规划,控制模块进行及时的控制指令输出,例如减速控制,声光警告提醒等。

其次,刹车力道丝滑。在系统保证安全的前提下,尽可能兼顾用户体验,避免提前长时间滑行刹车,也避免较晚刹车导致过度重刹*。

*NP下对于此类场景,减速力度数值最大达到-5mpss,如触发AEB主动安全功能,减速力度会更大。

从感知、计算和执行硬件,到背后的算法、模型和机器学习的完整体系,让ET5T能够从危险识别,预警,执行介入,到后续安全控车,人机交互全程一气呵成,协助用户在遇到风险时更从容的得到信息输入,车辆快速执行安全策略,确保在紧急状况下成功避险。