[发明专利]一种基于深度学习的HRRP对抗样本黑盒攻击方法有效

专利信息
申请号: 202010138300.1 申请日: 2020-03-03
公开(公告)号: CN111291828B 公开(公告)日: 2023-10-27
发明(设计)人: 黄腾;姚炳健;闫红洋;陈湧锋;杨碧芬 申请(专利权)人: 广州大学
主分类号: G06F18/214 分类号: G06F18/214;G06N3/0464;G06N3/08
代理公司: 广州市华学知识产权代理有限公司 44245 代理人: 林梅繁;裘晖
地址: 510006 广东省*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 hrrp 对抗 样本 黑盒 攻击 方法
【权利要求书】:

1.一种基于深度学习的HRRP对抗样本黑盒攻击方法,其特征在于,包括以下步骤:

S1、选取一个深度神经网络模型作为替代模型,并利用数据集对替代模型进行训练;

S2、选取样本,采用无目标或有目标通用扰动生成方法,以训练好的替代模型作为分类器,对数据集生成通用的无目标或有目标对抗扰动,并对数据集的每个样本生成无目标或有目标对抗样本;

S3、利用数据集对要攻击的黑盒模型进行训练;

S4、将步骤S2得到的无目标或有目标对抗样本对黑盒模型进行无目标或有目标攻击。

2.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S1中的替代模型为MLP模型。

3.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S3中黑盒模型采用的深度神经网络模型,为CNN模型。

4.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S2中,首先根据聚合法,设定生成通用无目标对抗扰动选取的样本数为n,从数据集中随机选取n个样本,设定通用无目标对抗扰动的约束条件;根据二分法,基于FGSM算法,利用替代模型对这n个样本依次生成无目标对抗扰动;最后,根据聚合法将n个无目标对抗扰动聚合并约束到给定的约束条件下,获得通用无目标对抗扰动,并将这个通用无目标对抗扰动分别添加到数据集的每一个样本中获得无目标对抗样本。

5.根据权利要求1所述的HRRP对抗样本黑盒攻击方法,其特征在于,步骤S2中,首先根据迭代法,从数据集中随机选取一个样本,基于FGSM算法生成该样本对目标类别具有高置信度的有目标扰动;根据缩放法,设定通用有目标对抗扰动的约束条件,将扰动缩放到设定的扰动大小,获得通用有目标对抗扰动,并将这个通用有目标对抗扰动分别添加到数据集的每一个样本中获得有目标对抗样本。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州大学,未经广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010138300.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top