[发明专利]一种基于卷积神经网络实现图像特征识别的内容安全监测系统及其方法在审
| 申请号: | 202010133407.7 | 申请日: | 2020-02-28 |
| 公开(公告)号: | CN111400572A | 公开(公告)日: | 2020-07-10 |
| 发明(设计)人: | 汪敏;严妍;贾亦赫;代丽娟;范梦洋 | 申请(专利权)人: | 开普云信息科技股份有限公司;北京开普云信息科技有限公司 |
| 主分类号: | G06F16/951 | 分类号: | G06F16/951;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 523000 广东省东莞市石龙镇中*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 卷积 神经网络 实现 图像 特征 识别 内容 安全 监测 系统 及其 方法 | ||
1.一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:包括如下步骤:
S1、系统运用爬虫技术对目标URL进行图像爬取;
S2、对爬取的待测图像和训练样本图像进行预处理;
S3、通过滤波器组提取预处理后的图像特征;
S4、运用神经网络学习规则对提取的样本图像特征进行机器训练,根据学习训练结果构建风险识别模型;
S5、对提取的待测图像特征进行存储,将待测图像特征通过风险识别模型进行卷积、采样和分类;
S6、输出识别结果,监测激活函数阈值;
S7、当阈值未达到指定数值时,继续监测;当阈值达到指定数值时,进行风险标记;
S8、系统自动发出预警提示,将监测结果反馈给前端用户。
2.如权利要求1所述的一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:所述S4中“神经网络学习规则”包括:梯度下降规则、反向传播学习规则、Delta(Wdrow-Holf)学习规则,其中:
梯度下降规则是对减小实际输出误差和期望输出误差之间方法的数学说明;
反向传播学习规则分为两个阶段,第一阶段是正向传播,将输入数据输入网络,网络从前向后计算每个单元的输出,将每个单元的输出与期望的输出进行比较并计算误差;第二阶段是反向传播,从后向前重新计算误差并修改权重,两个阶段完成后才可以输入新的数据;
Delta学习规则是通过改变单元之间的连接权重来减小系统实际输出与期望输出的误差。
3.如权利要求1所述的一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:所述S4进一步包括以下步骤:
S4.1、从特征样本库中取一个图像样本输入到卷积神经网络中;
S4.2、计算相应的实际输出;
S4.3、计算实际输出与期望输出的差;
S4.4、按极小化误差的学习方法反向传播,调整权值矩阵;
S4.5、根据输出结果构建风险识别模型。
4.如权利要求3所述的一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:所述S4.1中“图像样本输入到卷积神经网络中”是指:将样本参数初始化后进行卷积和采样,进行前向反馈的变换和计算;所述S4.4中“反向传播”是指:将实际输出与期望输出的差值进行增强和逻辑回归,根据反馈的误差和更新的权值调整权值矩阵,最后输出符合期望的结果。
5.如权利要求1所述的一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:所述S5进一步包括以下步骤:
S5.1、输入图像通过滤波器组Wx得到特征组xn,加上偏置bn进行卷积得到Mx层,n代表特征组数量;
S5.2、对Mx层的特征进行下采样得到Nx+1层;
S5.3、将Nx+1层的特征光栅化后变成向量,输入到全连接神经网络的权值矩阵中进行组装和分类,得到输出特征组an,计算公式如下:
其中,x1、x2、x3为步骤S5.1的输入,a1、a2、a3为步骤S5.3的输出,b1、b2、b3为偏置。
6.如权利要求5所述的一种基于卷积神经网络实现图像特征识别的内容安全监测方法,其特征在于:所述S5.1中“卷积”过程是指用一组可训练的滤波器组Wx去卷积输入图像和特征,加上偏置bn,得到卷积层Mx;所述S5.2中“下采样”过程是指将特征图像域中一组像素通过池化变为一个像素单元,产生特征映射图Nx+1;所述S5.3中“输入到全连接神经网络的权值矩阵中进行组装和分类”是指:将特征映射图Nx+1向量化后乘以优化的权值矩阵进行组装,通过激活函数进行分类,输出最优结果an。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于开普云信息科技股份有限公司;北京开普云信息科技有限公司,未经开普云信息科技股份有限公司;北京开普云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010133407.7/1.html,转载请声明来源钻瓜专利网。





