[发明专利]一种基于FGSM对抗攻击算法的检测与防御方法有效
申请号: | 202010190985.4 | 申请日: | 2020-03-18 |
公开(公告)号: | CN111600835B | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 徐嘉龙;董建达;夏洪涛;李鹏;高明;王猛;徐重酉;叶楠;苏建华;赵剑;叶斌;琚小明;张朋飞;于晓蝶;冉清文;刘宇;潘富城;胡妙 | 申请(专利权)人: | 宁波送变电建设有限公司永耀科技分公司;国网浙江省电力有限公司宁波供电公司;国网浙江宁波市鄞州区供电有限公司;国网浙江余姚市供电有限公司;华东师范大学 |
主分类号: | H04L9/40 | 分类号: | H04L9/40 |
代理公司: | 杭州华鼎知识产权代理事务所(普通合伙) 33217 | 代理人: | 魏亮 |
地址: | 315202 浙江省宁波市江北区北*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 fgsm 对抗 攻击 算法 检测 防御 方法 | ||
本发明提供了一种基于FGSM对抗攻击算法的检测与防御方法,包括确定被攻击的原始图像样本;将原始图像样本输入网络模型,利用FGSM算法生成对抗图像样本;将原始图像样本输入到目标网络模型,训练目标识别网络;将原始图像样本和对抗图像样本输入检测模型利用DCT算法和SVM算法训练模型并进行检测;对于要进行测试的图像样本进行测试,并输出识别结果。利用FGSM算法生成对抗图像样本,调用训练预输入层的方式对测试样本进行检测,利用目标网络模型进行识别,提升针对引入扰动的了防御能力。
技术领域
本发明属于计算机领域,特别涉及一种基于FGSM对抗攻击算法的检测与防御方法。
背景技术
机器视觉领域的技术的飞速发展,越来越多的应用也落地。机器视觉的最终目的是制造机器眼睛,像人眼一样来识别这个世界的事物。而其中最核心的就是深度神经网络系统。机器视觉是深度学习发展最为迅速的方向之一。
但随着机器学习计算机视觉的发展,机器学习算法的安全性也得到了广泛的关注。在图像识别中,可以通过在原始图像中添加一些精心制作的扰动使得人眼无法感知,但却可以欺骗神经网络使得其错误分类。对抗样本的特点是寻找尽量小的扰动,而且这些扰动对于观察者来说是不可察觉的。对抗样本的这些特性,给卷积神经网络的使用带来巨大的安全隐患。目前,对抗样本攻击多用于图像识别、图像分类、视频检测等领域。对抗样本的存在,给这些应用带来了巨大的安全挑战。比如,在自动驾驶中,自动驾驶汽车的视觉系统就是利用深度神经网络来识别行人、车辆和道路标志的。如果自动驾驶系统被对抗样本所攻击,在输入中添加精心制作的对抗样本干扰将会使得神经网络驾驶系统识别错误。若左转牌被攻击导致被识别成右转指示牌,或者停止指示牌被攻击导致识别成继续行驶,将会导致巨大的生命财产安全。
发明内容
为了解决现有技术中存在的缺点和不足,本发明提供了用于提高防御性的一种基于FGSM对抗攻击算法的检测与防御方法。
为了达到上述技术目的,本发明提供了一种基于FGSM对抗攻击算法的检测与防御方法,包括:
步骤一:确定被攻击的原始图像样本;
步骤二:将原始图像样本输入网络模型,利用FGSM算法生成对抗图像样本;
步骤三:将原始图像样本输入到目标网络模型,训练目标识别网络;
步骤四:将原始图像样本和对抗图像样本输入检测模型利用DCT算法和SVM算法训练模型并进行检测;
步骤五:对于要进行测试的图像样本进行测试,并输出识别结果。
可选的,所述步骤二包括:
收集开源的图像识别算法,在本地训练该开源识别算法的图像识别系统;
收集训练集;
确定神经网络的构造;
确定网络的损失函数;
利用FGSM算法调节图像的扰动;
利用梯度下降法训练神经网络;
分类错误且损失函数达到一定的阈值,当停止训练得到对应模型的参数;
利用模型生成对抗样本图像。
可选的,所述利用FGSM算法调节图像的扰动,具体包括如下步骤:
定义原始图像、扰动、产生扰动样本;
FGSM算法生成扰动;
其中,模型参数:,模型输入即图像:,结果标签:,损失函数:,符号函数:,是描述了点处函数的梯度方向,为在该方向上的偏移量级;
最终目的生成扰动样本使得函数值变大。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波送变电建设有限公司永耀科技分公司;国网浙江省电力有限公司宁波供电公司;国网浙江宁波市鄞州区供电有限公司;国网浙江余姚市供电有限公司;华东师范大学,未经宁波送变电建设有限公司永耀科技分公司;国网浙江省电力有限公司宁波供电公司;国网浙江宁波市鄞州区供电有限公司;国网浙江余姚市供电有限公司;华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010190985.4/2.html,转载请声明来源钻瓜专利网。