[发明专利]一种图片去噪的方法和装置有效
申请号: | 201610852105.9 | 申请日: | 2016-09-26 |
公开(公告)号: | CN107871306B | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 杨悦;朱和贵;张祥德 | 申请(专利权)人: | 北京眼神科技有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 赵娟 |
地址: | 100085 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 图片 方法 装置 | ||
1.一种图片去噪的方法,其特征在于,包括:
采用编码网络对原始图片数据进行特征提取,获得图片特征信息,其中,所述图片特征信息包括噪声信息;
将所述图片特征信息输入解码网络进行去噪处理,输出目标图片数据;
其中,所述编码网络和所述解码网络组成网络模型;
所述网络模型采用如下方法进行训练:
对训练样本中的全部数据进行训练,获得初始网络模型;
基于所述初始网络模型,从原始图片数据中选取特定区域的数据进行训练,获得最终的网络模型。
2.根据权利要求1所述的方法,其特征在于,所述编码网络以及所述解码网络为深度卷积神经网络;
所述编码网络包括多个卷积层,每个卷积层用于对输入的数据执行压缩以及特征重组的卷积操作;
所述解码网络包括与编码网络相同层数的多个卷积层,每个卷积层用于对输入的数据执行还原以及特征重组的卷积操作。
3.根据权利要求1所述的方法,其特征在于,所述特定区域为人脸所在的区域。
4.根据权利要求3所述的方法,其特征在于,所述网络模型以损失函数为目的进行训练,所述损失函数采用如下方式计算:
设定训练样本中带噪声信息的像素点的第一权重值与不带噪声的像素点的第二权重值,其中,所述第一权重值大于所述第二权重值;
计算所述训练样本以及预设的参考样本之间的欧几里得距离;
基于所述第一权重值、所述第二权重值以及所述训练样本以及预设的参考样本之间的欧几里得距离计算损失函数。
5.一种图片去噪的装置,其特征在于,包括:
特征提取模块,用于采用编码网络对原始图片数据进行特征提取,获得图片特征信息,其中,所述图片特征信息包括噪声信息;
去噪模块,用于将所述图片特征信息输入解码网络进行去噪处理,输出目标图片数据;
网络模型生成模块,用于由所述编码网络和所述解码网络组成网络模型;
所述网络模型生成模块包括如下子模块:
第一训练子模块,用于对训练样本中的全部数据进行训练,获得初始网络模型;
第二训练子模块,用于基于所述初始网络模型,从原始图片数据中选取特定区域的数据进行训练,获得最终的网络模型。
6.根据权利要求5所述的装置,其特征在于,所述编码网络以及所述解码网络为深度卷积神经网络;
所述编码网络包括多个卷积层,每个卷积层用于对输入的数据执行压缩以及特征重组的卷积操作;
所述解码网络包括与编码网络相同层数的多个卷积层,每个卷积层用于对输入的数据执行还原以及特征重组的卷积操作。
7.根据权利要求5所述的装置,其特征在于,所述特定区域为人脸所在的区域。
8.根据权利要求7所述的装置,其特征在于,所述网络模型以损失函数为目的进行训练,所述损失函数采用如下方式计算:
设定训练样本中带噪声信息的像素点的第一权重值与不带噪声的像素点的第二权重值,其中,所述第一权重值大于所述第二权重值;
计算所述训练样本以及预设的参考样本之间的欧几里得距离;
基于所述第一权重值、所述第二权重值以及所述训练样本以及预设的参考样本之间的欧几里得距离计算损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京眼神科技有限公司,未经北京眼神科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610852105.9/1.html,转载请声明来源钻瓜专利网。