一种自动驾驶车辆行驶实时道路模型融合方法
摘要文本
本发明公开了一种自动驾驶车辆行驶实时道路模型融合方法,包括如下步骤:通过车辆的视觉感知系统获取视觉感知参数Is,通过车辆的毫米波雷达获取毫米波雷达感知参数Ih,通过车载信息系统获取车辆行驶参数Ix;基于视觉感知参数Is得到视觉信息道路模型Ms,基于毫米波雷达感知参数Ih得到雷达信息道路模型Ms,基于车辆行驶参数Ix得到行驶信息道路模型Mx;对视觉信息道路模型Ms、雷达信息道路模型Ms和行驶信息道路模型Mx进行融合,获得融合后的综合信息道路模型。本发明的自动驾驶车辆行驶实时道路模型融合方法,具有能够有效解决单一数据源生成的道路模型鲁棒性差的问题、提高自动驾驶的安全性、生成道路模型成本低且周期短等优点。
申请人信息
- 申请人:科大国创合肥智能汽车科技有限公司
- 申请人地址:230088 安徽省合肥市高新区明珠大道584号
- 发明人: 科大国创合肥智能汽车科技有限公司
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 一种自动驾驶车辆行驶实时道路模型融合方法 |
| 专利类型 | 发明申请 |
| 申请号 | CN202410125740.1 |
| 申请日 | 2024/1/30 |
| 公告号 | CN117649583A |
| 公开日 | 2024/3/5 |
| IPC主分类号 | G06V10/80 |
| 权利人 | 科大国创合肥智能汽车科技有限公司 |
| 发明人 | 檀杰; 朱添翼; 史兴领 |
| 地址 | 安徽省合肥市高新区明珠大道584号 |
专利主权项内容
1.一种自动驾驶车辆行驶实时道路模型融合方法,其特征是,包括如下步骤:步骤1:通过车辆的视觉感知系统获取视觉感知参数Is,通过车辆的毫米波雷达获取毫米波雷达感知参数Ih,通过车载信息系统获取车辆行驶参数Ix;步骤2:将视觉感知参数Is输入基础道路模型后得到视觉信息道路模型Ms,将毫米波雷达感知参数Ih输入基础道路模型后得到雷达信息道路模型Mh,将车辆行驶参数Ix输入基础道路模型后得到行驶信息道路模型Mx;其中,将车辆行驶参数Ix输入基础道路模型后得到行驶信息道路模型Mx的过程包括如下步骤:步骤231:计算本车的运动轨迹,获得本车的车辆位置信息;车辆位置信息包括横摆角yaw、坐标(x,y)和转换矩阵RT;ttt横摆角yaw的计算公式见下式(4);
(4)上式(4)中, t为当前时刻,yawrate为横摆角速度;距离dis的计算公式见下式(5);t
(5)上式(5)中,speed为t时刻的速度,△t为t时刻与t-1时刻的时间差;t坐标(x,y)更新计算公式见下式(6);tt
(6)上式(6)中,(x,y)为t时刻的车辆坐标;tt转换矩阵RT见下式(7);t
(7)上式(7)中,T为车辆当前在首帧坐标系的位置[x,y,z],R为基于横摆角yaw角度计算的旋转矩阵;ttttTt步骤232:将多个时刻下的车辆位置信息转换到当前时刻的车身坐标系下,然后根据转换后的车辆位置信息进行曲线拟合;所述车辆位置信息的转换公式见下式(8);
(8)上式(8)中,RT为转换矩阵,RT为转换矩阵RT的逆矩阵,P为首帧坐标系下的坐标,P为当前的某时刻车身坐标系的坐标;曲线拟合结果为;-1wc步骤233:基于拟合的行驶车道中线和横摆角yaw,对车辆行驶状态进行预估;步骤234:转弯状态下,结合视觉可行驶区域与毫米波雷达的边线拟合结果,对车辆行驶信息的视觉信息道路模型Ms进行更新,获得行驶信息道路模型Mx;步骤3:对视觉信息道路模型Ms、雷达信息道路模型Mh和行驶信息道路模型Mx进行融合,获得融合后的综合信息道路模型Mz。