[发明专利]一种基于增量漂移聚类的复杂星空背景目标识别方法有效
申请号: | 202111620710.0 | 申请日: | 2021-12-27 |
公开(公告)号: | CN114332444B | 公开(公告)日: | 2023-06-16 |
发明(设计)人: | 马跃博;林玲;赵汝进;刘恩海;朱自发;易晋辉;曾思康;朱梓建 | 申请(专利权)人: | 中国科学院光电技术研究所 |
主分类号: | G06V10/22 | 分类号: | G06V10/22;G06V10/762;G06V10/764;G06T7/136;G06T7/246;G06T5/50 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 金怡 |
地址: | 610209 *** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 增量 漂移 复杂 星空 背景 目标 识别 方法 | ||
本发明公开了一种基于增量漂移聚类的复杂星空背景目标识别方法,步骤包括:(1)连续拍摄包含目标的星图;(2)自适应提取星图中的所有目标星点;(3)基于目标运动特征建立目标运动特征跟踪池;(4)目标增量漂移聚类分类识别。该方法以复杂星空中的目标识别为背景,运用自适应目标提取手段精确提取图像中包含目标,构建目标特征描述以建立目标帧间相似性跟踪池,从而建立目标的运动特征描述,结合增量式的漂移聚类方法对提取目标进行分类识别,实现了多目标识别,并提高了识别的实时性和鲁棒性。
技术领域
本发明涉及复杂星空背景的目标识别的技术领域,尤其涉及一种基于增量漂移聚类的复杂星库背景目标识别方法。
背景技术
随着人类航天技术的不断发展、越来越多的目标被送入太空,以SpaceX、亚马逊、OneWeb和中国卫星网络集团为代表的国内外机构均已计划或正在建立巨型互联网卫星星座。其中SpaceX的星链计划已经发射了1700多颗卫星,未来还将进一步发射卫星达12000颗。大多数航天器在寿命结束或者失控后并不会直接坠毁消失,而是将长期在空间飞行,此外航天发射过程中的火箭末级、任务抛弃物等残留也会长期滞留在空间,目前空间中存在大量空间碎片,经观测分析,目前已经知道的大于10厘米的空间碎片总数在3万个左右;1厘米到10厘米之间的碎片据估计有90万个;毫米级的碎片大概有1亿多。这些空间碎片的存在极大的影响了航天任务发射和正常在轨运行。因此目前对目标的高精度实时探测识别技术面临迫切的需求。
传统的目标识别方法一般是基于特征匹配的方法进行目标的识别,而对于复杂星空的弱小点状目标与恒星相比特征不明显,因此基于特征匹配的目标识别方法难以应用在对空间弱小目标的识别。同时随着机器学习等相关技术的发展,基于机器学习的目标识别方法被提出研究。但是由于空间环境的目标数据受限,样本量较小,且弱小点状目标的语义信息较少,影响识别的准确性,同时基于天基平台该类方法又难以实现实时运行。
目前,目标识别的方法主要有基于星图匹配、基于深度学习和基于特征提取匹配的方法进行目标识别,存在极高的虚警率,未有效利用空间中恒星与运动目标的运动信息。
专利《201110095824.8》和《201911043739.X》均采用了星图匹配的方式进行背景抑制以实现远距离空间运动目标识别,相关方法需构建星表,存在目标的漏检、虚警率高和启发式的阈值设定等问题。
专利《201911388125.5》和《201910685093.9》均采用了基于深度学习的目标识别方法,通过模型网络训练实现对目标的识别,但是主要针对具有一定形态的目标,未涉及空间多小点状目标,且基于深度学习的方法难以在天基平台上实时应用。
《基于自适应空间滤波多级假设检验的目标识别方法》中对目标的识别采用的是恒星跟踪模式下的多级假设检验的方式实现目标识别,该方法主要用于地基设备的识别,方法较为复杂基于天基难以实时运行。
另外专利《202010220978.4》采用图像积分均值的方式实现对目标识别,需多帧图像进行积分均值,阈值分割根据目标的轮廓形态不同进行目标识别。存在由于运动速度较小或较大时虚警较高或识别率较低和启发式经验阈值设定等问题。
以上方法均未涉及本发明提出的基于增量漂移聚类的复杂星空背景目标识别方法。综上所述,现有目标识别方法存在依赖先验信息、实时性差和对启发式经验阈值敏感等问题。
为此,提出了一种基于增量漂移聚类的复杂星空背景目标识别方法,该方法不依赖于先验信息且针对多个目标能自适应调整分类阈值,且具有识别率高、虚警率低等优势,大幅提高识别的速度。
发明内容
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院光电技术研究所,未经中国科学院光电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111620710.0/2.html,转载请声明来源钻瓜专利网。