[发明专利]基于多模态传感器的水面无人艇环境信息融合感知方法有效
| 申请号: | 202110760932.6 | 申请日: | 2021-07-06 |
| 公开(公告)号: | CN113627473B | 公开(公告)日: | 2023-09-29 |
| 发明(设计)人: | 李晔;魏凯昕;王博;魏星;姜鹏;顾华宇 | 申请(专利权)人: | 哈尔滨工程大学 |
| 主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/762;G06V10/82;G06N3/0464;G06V10/774;G06N3/08;G06T7/30;G06T7/80;G01S17/50;G01S17/42;G01S13/50;G01S13/42 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 多模态 传感器 水面 无人 环境 信息 融合 感知 方法 | ||
1.一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于,包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
2.根据权利要求1所述的一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于:所述的步骤4具体包括以下步骤:
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为ρn表示第n组数据中目标与水面无人艇的距离,表示第n组数据中目标在极坐标系下与极轴的角度,表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
其中,bkx表示目标在笛卡尔坐标系x轴的位置;bky表示目标在笛卡尔坐标系y轴的位置;vk表示目标的速度,ψk表示目标的偏航角,表示目标的偏航角速度
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,Ψ1=0,即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令Ψ1=0,即
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk;
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
若则:
若则:
协方差矩阵Qk的计算方法为:
其中,为设定的常数;为目标的历史偏航角速度变换倍率的方差,根据集合X中的数据计算;
步骤4.4:计算目标的CTRV运动状态的预测值及状态误差协方差矩阵的预测值
其中,υk为噪声;
其中,υa,k为纵向加速度噪声,其均值为0,方差为为角加速度噪声,其均值为0,方差为
步骤4.5:若第k组数据zk为激光雷达采集的数据,则执行步骤4.6;若第k组数据zk为航海雷达采集的数据则执行步骤4.7;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中:
其中,I为单位阵;为笛卡尔坐标系x轴方向的噪声标准差;为笛卡尔坐标系y轴方向的噪声标准差;
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中,
其中,为不同参数的噪声标准差;
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110760932.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种沙棘原浆生产工艺
- 下一篇:具有隔音功能的三聚氰胺树脂、浸渍纸和三胺板





