[发明专利]一种卷积自编码器及物体内部异常的检测方法和装置在审
申请号: | 201910302171.2 | 申请日: | 2019-04-15 |
公开(公告)号: | CN110007355A | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 叶盛波;赵迪;周斌;方广有 | 申请(专利权)人: | 中国科学院电子学研究所 |
主分类号: | G01V3/12 | 分类号: | G01V3/12;G01S7/41;G01S13/88;G06N3/04 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 周天宇 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 编码器 方法和装置 物体内部 异常数据 反卷积 压缩 重构 无监督学习 雷达监测 手动标记 数据误差 提取数据 重构数据 卷积核 自编码 检测 堆叠 解压 维度 | ||
一种卷积自编码器,用于对雷达监测的数据进行重构,依次包括:至少一个由卷积核组成的卷积层、至少一个pooling层以及至少一个反卷积层,其中,卷积层的数量与pooling层的数量相同,每一卷积层后连接一pooling层,至少一个卷积层用于实现卷积层的堆叠以提取数据的特征,pooling层用于降低数据的维度,反卷积层用于根据特征对数据进行重构,得到重构数据。另外本公开还提供了一种基于卷积自编码器的物体内部异常的检测方法和装置,采用卷积自编码进行无监督学习,利用卷积自编码器把待测数据进行压缩,由于压缩为有损压缩,异常数据解压后与对应的待测数据误差更大,从而识别出待测数据中的异常数据。整个过程不需要手动标记数据,简单方便。
技术领域
本发明涉及雷达探测技术领域,尤其涉及一种卷积自编码器及物体内部异常的检测方法和装置。
背景技术
对物体内部异常进行检测,尤其是公路地下异常检测是浅层探地雷达的主要应用场景之一,但由于探地雷达地下异常自动检测技术尚不成熟,故大量探地雷达数据多依赖于人工解译,费时费力。近年来,以深度学习为代表的机器学习技术在信号处理与模式识别领域的飞速发展,许多研究人员开始对基于深度学习的探地雷达地下目标自动识别技术的研究。目前,基于深度学习的探地雷达地下异常识别通常采用以卷积神经网络为代表的监督学习方法,监督学习方法需要大量标记过的数据作为支撑,而虽然探地雷达测量数据量巨大,但没有公开的标记数据集,因此目前采用监督学习方法的标记训练数据来源主要是电磁计算获得的仿真数据或自己对数据进行标记。由于电磁正演获得的仿真数据为理想情况下的雷达回波数据,而硬件、环境变化等干扰因素均会导致真实的雷达回波不理想,导致真实数据与仿真数据不完全一致。使用电磁正演获得的仿真数据进行监督学习训练,可能会导致模型应用在实际数据中有一定偏差,而如果使用真实数据进行训练,则需要大量手工标记的数据,工作量巨大。
发明内容
(一)要解决的技术问题
基于上述技术问题,本发明提出一种卷积自编码器及物体内部异常的检测方法和装置,采用卷积自编码进行无监督学习,实现地下异常的检测,不需要手动标记数据,简单方便。
(二)技术方案
本发明提供了一种卷积自编码器,用于对雷达监测的数据进行重构,依次包括:至少一个由卷积核组成的卷积层、至少一个pooling层以及至少一个反卷积层,其中,卷积层的数量与pooling层的数量相同,每一卷积层后连接一pooling层,至少一个卷积层用于实现卷积层的堆叠以提取数据的特征,pooling层用于降低数据的维度,反卷积层用于根据特征对数据进行重构,得到重构数据。
可选地,卷积层、pooling层以及反卷积层的具体数量满足重构数据与数据的误差值在预设误差范围内。
可选地,卷积核的尺寸大于或等于雷达单次反射子波数据的长度。
可选地,卷积核为一维卷积核,对应的pooling层和反卷积层分别为一维pooling层和一维反卷积层。
另一方面本发明还提供了一种基于卷积自编码器的物体内部异常的检测方法,方法包括:S1,根据探地雷达的样本数据训练卷积自编码器,得到训练完成的卷积自编码器;S2,采用探地雷达获取物体得到待测数据;S3,将待测数据输入训练完成的卷积自编码器,得到重构数据;S4,获取重构数据与待测数据的Frechet距离,若Frechet距离大于预设阈值则待测数据为异常数据,则物体内部存在异常。
可选地,预设阈值为探地雷达饱和幅值的1~5倍。
可选地,获取重构数据与待测数据的离散Frechet距离具体为根据以下公式计算所述重构数据与待测数据的离散Frechet距离δdF:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院电子学研究所,未经中国科学院电子学研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910302171.2/2.html,转载请声明来源钻瓜专利网。