[发明专利]一种基于深度学习的HRRP对抗样本黑盒攻击方法有效
| 申请号: | 202010138300.1 | 申请日: | 2020-03-03 |
| 公开(公告)号: | CN111291828B | 公开(公告)日: | 2023-10-27 |
| 发明(设计)人: | 黄腾;姚炳健;闫红洋;陈湧锋;杨碧芬 | 申请(专利权)人: | 广州大学 |
| 主分类号: | G06F18/214 | 分类号: | G06F18/214;G06N3/0464;G06N3/08 |
| 代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 林梅繁;裘晖 |
| 地址: | 510006 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 hrrp 对抗 样本 黑盒 攻击 方法 | ||
1.一种基于深度学习的HRRP对抗样本黑盒攻击方法,其特征在于,包括以下步骤:
S1、选取一个深度神经网络模型作为替代模型,并利用数据集对替代模型进行训练;
S2、选取样本,采用无目标或有目标通用扰动生成方法,以训练好的替代模型作为分类器,对数据集生成通用的无目标或有目标对抗扰动,并对数据集的每个样本生成无目标或有目标对抗样本;
S3、利用数据集对要攻击的黑盒模型进行训练;
S4、将步骤S2得到的无目标或有目标对抗样本对黑盒模型进行无目标或有目标攻击。
2.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S1中的替代模型为MLP模型。
3.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S3中黑盒模型采用的深度神经网络模型,为CNN模型。
4.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S2中,首先根据聚合法,设定生成通用无目标对抗扰动选取的样本数为n,从数据集中随机选取n个样本,设定通用无目标对抗扰动的约束条件;根据二分法,基于FGSM算法,利用替代模型对这n个样本依次生成无目标对抗扰动;最后,根据聚合法将n个无目标对抗扰动聚合并约束到给定的约束条件下,获得通用无目标对抗扰动,并将这个通用无目标对抗扰动分别添加到数据集的每一个样本中获得无目标对抗样本。
5.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S2中,首先根据迭代法,从数据集中随机选取一个样本,基于FGSM算法生成该样本对目标类别具有高置信度的有目标扰动;根据缩放法,设定通用有目标对抗扰动的约束条件,将扰动缩放到设定的扰动大小,获得通用有目标对抗扰动,并将这个通用有目标对抗扰动分别添加到数据集的每一个样本中获得有目标对抗样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州大学,未经广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010138300.1/1.html,转载请声明来源钻瓜专利网。





