[发明专利]一种融合视觉和雷达系统的海上落水人员识别及定位方法在审
申请号: | 202310097191.7 | 申请日: | 2023-02-10 |
公开(公告)号: | CN116087982A | 公开(公告)日: | 2023-05-09 |
发明(设计)人: | 任才龙;徐文军;江佳;钦培健;杨纪平 | 申请(专利权)人: | 江苏佼燕船舶设备有限公司 |
主分类号: | G01S17/89 | 分类号: | G01S17/89;G01S17/86;G01S17/06 |
代理公司: | 杭州奥创知识产权代理有限公司 33272 | 代理人: | 王佳健 |
地址: | 214404 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 融合 视觉 雷达 系统 海上 落水 人员 识别 定位 方法 | ||
本发明公开了一种融合视觉和雷达系统的海上落水人员识别及定位方法,涉及海上救援救助领域。本发明首先基于视觉图像实现目标的检测,进而得到落水人员的方位信息来进一步确定三维激光雷达的探测范围,然后对三维激光雷达原始点云数据进行预处理滤波,再利用欧式聚类实现分割,最终将视觉图像与点云雷达图像进行融合实现区域匹配,得到落水人员相对于船体的具体距离,结合已知的方位信息,抵近展开救援。本发明在利用三维激光雷达进行探测前先根据视觉目标检测的结果得到落水人员的方位信息来进一步确定雷达的探测角度范围,使得探测更有针对性,提高了对落水人员识别定位的高效性。
技术领域
本发明涉及海上救援救助领域,尤其涉及一种融合视觉和雷达系统的海上落水人员识别及定位方法。
背景技术
目前,海上救援主要依赖于救助艇等在海域内开展地毯式搜索来完成,一定程度上极大降低了海上救援的风险。救助艇是用于救助遇险人员及集结救生筏,且有良好操纵性的机动小艇。但在海洋这样复杂多变的环境背景下,基于这一类的船艇对落水人员这类弱小目标实现及时的识别与定位一直是一个难题。
对于海上落水人员这类目标的识别目前主要是可以通过一些深度学习的模型实现,但由于数据集的限制、场景的特殊性以及目标的小尺度特征,尚未能达到较好的检测效果。
在海面这样多有遮挡变化的场景中,可见光图像提供的信息是最为丰富的。而目前,利用深度学习算法对可见光图像进行处理,实现目标检测是一个热门的研究领域。近年来相关算法发展得十分迅速,准确率也在不断提升。因此,将相应的目标检测算法应用于海面落水人员这一类的弱小目标的检测识别是目前最兼具准确性和实时性的方法之一。
另外,对于落水人员这一类目标要实施救援,除了要得到其方位信息,还需要得到其相对于救援船体的距离信息。
激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统;其工作原理是向目标发射探测信号(激光束),然后将接收到的从目标反射回来的信号(目标回波)与发射信号进行比较,作适当处理后,就可获得目标的有关信息,如目标距离、方位、高度、速度等参数,从而对目标进行探测、跟踪和识别。另外,雷达还兼具了准确性与实时性,在海面救援这一场景中,能较好地满足对于目标探测距离同时保证实时性的需求。
综上所述,融合视觉与雷达系统有望帮助解决海上落水人员的识别与定位这一难题。在实际场景中,可以在救助艇等海上救援救助设备上实现该算法的应用,进一步提高救援救助效率。
发明内容
有鉴于此,本发明主要目的在于提供一种融合视觉和雷达系统的海上落水人员识别及定位方法,以克服现有技术中的上述缺陷。
本发明解决技术问题所采取的技术方案为:
步骤一:采集海面实时图像,进行目标检测,得到第一海面目标候选集以及第一坐标信息;利用相机标定原理得到落水人员的方位信息;同时确定三维激光雷达的搜索范围θ;
步骤二:获取三维激光雷达原始点云数据,进行预处理滤波;采用欧式聚类算法得到第二海面目标候选集以及第二坐标信息;
步骤三:利用联合标定建立第一坐标信息和第二坐标信息的转换关系,实现雷达点云图像与可见光图像的融合;
步骤四:候选目标区域匹配,最终得到落水人员的方位与距离信息。
本发明还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现上述方法。
本发明具有以下有益效果:
1.融合视觉和雷达系统实现检测,一方面利用深度学习模型对可见光图像进行目标检测,是目前最为高效与准确的方法之一;另一方面利用雷达实现对落水人员的距离探测也是较为精准的,将两者结合实现识别与定位的整体方案是高效且可靠的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏佼燕船舶设备有限公司,未经江苏佼燕船舶设备有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310097191.7/2.html,转载请声明来源钻瓜专利网。