[发明专利]一种基于轻量化网络的位深度提升方法及其系统有效
申请号: | 202010096369.2 | 申请日: | 2020-02-17 |
公开(公告)号: | CN111325781B | 公开(公告)日: | 2023-03-14 |
发明(设计)人: | 赵洋;任迪雅;李书杰;贾伟;李琳;刘晓平 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G06T7/50 | 分类号: | G06T7/50;G06T7/11;G06N3/0464;G06N3/048;G06N3/082 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 量化 网络 深度 提升 方法 及其 系统 | ||
本发明公开了一种基于轻量化网络的位深度提升方法及其系统,该方法包括:首先通过一个浅层全卷积神经网络提取图像平坦区域掩模;然后将平坦区域掩模与低位深度图像联结作为输入通过一个平坦区域位深度提升模块;将非平坦区域掩模与低位深度图像联结作为输入通过一个非平坦区域位深度提升模块,最终将上述输出相加得到最终的高位深度图像。本发明能改善位深度提升图像的视觉效果,并着重处理位深度提升中的平坦区域不自然效应,从而高效提升图像像素位深度。
技术领域
本发明涉及图像处理领域,具体是一种基于轻量化网络的位深度提升方法及系统。
背景技术
像素位深度(Bit-Depth)用于指定图像中的每个像素可以使用的数值范围,例如,目前常见的视频与图像多为8bits,即每个像素值取值范围有28(0~255)。而每个像素使用的位数越多,数值层次就越丰富,细节及颜色表现就更逼真。人类视觉系统能感知212~214的亮度差异,然而当前大部分显示器图像都是8bits,无法显示细腻、逼真、高动态的现实图像。随着显示技术和显示产业的发展,显示面板支持的位深度也在不断提升,例如目前的4K超高清电视已大多支持10bits显示,一些专业显示器支持的位深度更深。面向未来显示面板不断提升的图像像素位深度,如何解决目前海量的视频图像资源在更高位深度的面板上更好的显示,是一个面向应用的实际问题。
近年来提出的位深度提升方法多为传统方法,例如对缺失的比特位信息进行简单填充或基于规则对低位比特位信息进行放大。但是这些方法往往会产生一些不自然效应,例如,在平坦区域产生明显的带状效应(BandingArtifact),即图像从整体上表现出一种时明时暗的不连续性;产生振铃效应(RingingArtifact),即物体边缘产生“涟漪”状的过度效果;产生块效应(BlockingArtifact),即图像上出现一些“方格”的效果。同时,传统方法难以准确预测缺失位的数值信息。
最近,基于深度学习的位深度提升算法有两种:一种使用UNet结构,以获取较大的感受野,完成较大跨度的位深度的提升(如4bits到8bits),但这种方法不能完全的消除不自然效应,也会在平坦区域产生新的棋盘格效应;另一种使用很深残差网络,可以精细的完成小跨度的位深度提升(如6bits到8bits),但由于缺乏全局感受野,无法很好的完成跨度较大的提升(如4bits到8bits);同时,这两种方法参数量与计算消耗均较大,限制了实际应用的前景。
发明内容
本发明为克服现有技术中的不足之处,提出一种基于轻量化网络的位深度提升方法及其系统,以期能改善位深度提升图像的视觉效果,并着重处理位深度提升中的平坦区域不自然效应,从而高效提升图像像素位深度。
为了实现上述发明目的,本发明采用如下技术方案:
本发明一种基于轻量化网络的位深度提升方法的特点是按如下步骤进行:
步骤1.构建一个基于全卷积网络的图像平坦区域提取模块P:
设置所述图像平坦区域提取模块P的网络结构分为全卷积部分和反卷积部分;
设置所述全卷积部分依次包含t个由卷积核大小为n×n的卷积层和池化层组成的卷积模块以及一个卷积核大小为1×1的卷积层;
设置所述反卷积部分依次包含一个上采样层、一个卷积核大小为n×n的卷积层与ReLU激活函数层;
步骤2.构建一个基于轻量化残差网络的平坦区域位深度提升模块X:
设置所述平坦区域位深度提升模块X依次包含:一个卷积核大小为n×n的卷积层、m个嵌套残差块、一个卷积核大小为n×n的卷积层,并在所述平坦区域位深度提升模块X的输入层之前与输出层之后分别添加全局跳过连接;
设置任意一个嵌套残差块依次包含:一个卷积核大小为n×n的卷积层、两个内嵌1×1残差块、一个卷积核大小为n×n的卷积层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010096369.2/2.html,转载请声明来源钻瓜专利网。