[发明专利]一种无人艇载多元多尺度雷达实时融合的无缝态势感知方法在审
| 申请号: | 202210287480.9 | 申请日: | 2022-03-22 |
| 公开(公告)号: | CN114879180A | 公开(公告)日: | 2022-08-09 |
| 发明(设计)人: | 范云生;陈思;张灏岩 | 申请(专利权)人: | 大连海事大学 |
| 主分类号: | G01S13/86 | 分类号: | G01S13/86;G01S13/937;G01S17/86;G01S17/93;G06V10/10;G06V10/26;G06V10/44;G06V10/52;G06V10/762;G06V10/80 |
| 代理公司: | 大连东方专利代理有限责任公司 21212 | 代理人: | 李馨 |
| 地址: | 116026 辽*** | 国省代码: | 辽宁;21 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 无人 多元 尺度 雷达 实时 融合 无缝 态势 感知 方法 | ||
1.一种无人艇载多元多尺度雷达实时融合的无缝态势感知方法,其特征在于包括:
根据量程范围选取不同波段的雷达作为远程预警预测航海雷达、中程感知航海雷达和激光雷达,并获取远程预警预测雷达和中程感知航海雷达的航海雷达图像,采用最小二乘曲线拟合法对上述三种雷达进行时间对齐;
读取远程预警预测航海雷达图像和中程感知航海雷达图像并进行坐标系转换,将极坐标转换为直角坐标,对两种图像分别进行腐蚀操作并填补图像中的空点,采用仿射变换对中程感知航海雷达图像进行缩放,使中程感知航海雷达图像的像素点实际距离与远程预警预测雷达图像的像素点实际距离一致,对远程预警预测航海雷达雷达图像和中程感知航海雷达图像进行阈值分割获取障碍物信息;
采用尺度归一化方法对远程预警预测航海雷达图像和中程感知航海雷达图像进行像素级匹配融合和信息提取处理,获取远程预警预测航海雷达与中程感知航海雷达融合图像;
获取激光雷达的三维点云数据,对该点云数据进行信息提取和栅格化处理获得栅格地图,采用区域生长法将远程预警预测航海雷达与中程感知航海雷达融合图像和栅格地图进行图像融合获得多元融合图像。
2.根据权利要求1所述的方法,其特征在于:在获取远程预警预测航海雷达与中程感知航海雷达融合图像时:将远程预警预测航海雷达图像和中程感知航海雷达图像的像素点分别存放于两个点集当中,基于两种雷达图像的中心点一致原则,确定中程感知航海雷达图像在远程预警预测航海雷达图像上的叠加位置,以匹配点作为起点、中程感知航海雷达图像大小作为融合区域,在远程预警预测航海雷达中获取相应的感兴趣区域,将两个图像对应像素点进行逐一比较,采取叠加的方式确定像素点的灰度值,当两个雷达图像对应位置的像素点只要有一个认为有障碍物,则融合图中对应的像素点认为有障碍物,对融合图像中的障碍物进行信息提取,获取目标与本船的距离、速度和方位信息。
3.根据权利要求1所述的方法,其特征在于:在获取激光雷达点云数据时,首先对原始数据进行坐标转换以及滤波处理,对预处理后的点云信息进行栅格化获得二维栅格地图,对栅格地图采用连通域提取的方法进行目标提取,将航海雷达融合图与栅格地图进行融合,采用区域生长法将融合地图的目标信息进行提取,从而获取最终的多元融合图以及目标信息。
4.根据权利要求1所述的方法,其特征在于:所述远程预警预测雷达、中程感知航海雷达和激光雷达的中心点安装在同一垂直XY平面的轴上。
5.根据权利要求2所述的方法,其特征在于:读取远程预警预测航海雷达与中程感知航海雷达融合图像的目标信息,采用Canny边缘检测方法对目标进行边缘提取,计算图像的梯度幅值和方向信息,采用双阈值检测方式提取图像的边缘信息,使用矩形框对目标进行提取,采用相对位置合理变化方法对目标进行跟踪从而提取出目标的位置、速度和航向信息。
6.根据权利要求2所述的方法,其特征在于:采用区域生长法将航海雷达融合图像和栅格地图进行图像融合时:将远程预警预测航海雷达与中程感知航海雷达融合图像映射到激光雷达坐标系中,设置区域生长条件的生长距离阈值以及航海雷达映射区域的边界点,将该边界点作为种子点加入队列中,在通行区域的点中进行生长,当队列的点集为空时则生长完成形成一个聚类,再寻找未聚类的边界点按照此方法继续生长,直到所有的点全部完成聚类得到最终融合图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连海事大学,未经大连海事大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210287480.9/1.html,转载请声明来源钻瓜专利网。





