[发明专利]一种视频编码、解码方法及视频编码帧内预测器有效
| 申请号: | 201810713756.9 | 申请日: | 2018-07-03 |
| 公开(公告)号: | CN110677644B | 公开(公告)日: | 2021-11-16 |
| 发明(设计)人: | 刘家瑛;胡越予;杨文瀚;夏思烽 | 申请(专利权)人: | 北京大学 |
| 主分类号: | H04N19/103 | 分类号: | H04N19/103;H04N19/176;H04N19/573;H04N19/70 |
| 代理公司: | 北京君尚知识产权代理有限公司 11200 | 代理人: | 司立彬 |
| 地址: | 100871 北*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 视频 编码 解码 方法 预测 | ||
1.一种视频编码方法,其步骤包括:
1)利用待编码块的参考块的像素值均值对该待编码块进行填充,产生一图像;
2)将该图像映射到特征空间,并提取该图像的局部特征;然后利用所述局部特征对该待编码块的预测块进行填充,得到该待编码块的预测值;其中所述局部特征为刻画了参考块中像素的分布特性的特征;所述局部特征包括图像的边缘方向、像素的统计特征和像素之间纹理的方向;
3)对该待编码块的预测值和实际值的残差进行编码。
2.一种视频编码方法,其步骤包括:
1)取得当前待编码块周围已编码的编码块作为该待编码块的参考块;分别使用HEVC和循环神经网络生成该待编码块的预测值;其中,利用循环神经网络生成该待编码块的预测值的方法为:11)利用待编码块的参考块的像素值均值对该待编码块进行填充,产生一图像;12)将该图像映射到特征空间,并提取该图像的局部特征;然后利用所述局部特征对该待编码块的预测块进行填充,得到该待编码块的预测值;其中所述局部特征为刻画了参考块中像素的分布特性的特征;所述局部特征包括图像的边缘方向、像素的统计特征和像素之间纹理的方向;
2)计算使用HEVC生成该待编码块的预测值与实际值的残差和码率代价大小,计算使用循环神经网络生成该待编码块的预测值与实际值的残差和码率代价大小;
3)如果HEVC方式对应的码率代价小于循环神经网络对应的码率代价,则在码流中生成一预测模式标志位0,否则在码流中生成一预测模式标志位1,然后编码残差对应的码字。
3.如权利要求1或2所述的方法,其特征在于,提取所述局部特征的方法为:对特征空间中产生的特征张量,在空间上分别使用横向和竖向的空间循环网络层提取该图像的局部特征。
4.如权利要求2所述的方法,其特征在于,所述循环神经网络的第一部分为预处理卷积层、第二部分为串联循环网络预测单元、第三部分为重建卷积层 ;其中,该预处理卷积层,用于将该图像映射到特征空间,该串联循环网络预测单元包括三个串联的空间循环神经网络单元,所述空间循环神经网络单元,用于将该特征空间内特征图组成的张量在空间上分别按横向和竖向切分成若干个平面,每一个平面被展开成向量,以从上到下和从左到右的顺序,分别使用门控循环单元空间循环神经网络进行处理,并将处理后得到的向量序列重新拼接成与原来平面形状一致的平面,以及根据处理后得到的向量序列在横向和竖向分别整合成一个与输入形状一致的特征张量;然后将得到的两个特征张量在通道维进行拼接;然后利用该重建卷积层对拼接后的特征张量进行融合,得到该待编码块的预测值。
5.如权利要求4所述的方法,其特征在于,训练得到所述循环神经网络的方法为:
a)采集多个图像,利用采集的图像生成多个分辨率不同的视频,然后对每一视频在多个量化参数下进行编码;其中,在编码过程中,取得帧内预测的上下文作为训练数据;所述预测上下文包含预测可用的参考块和待编码块的实际值;
b)将训练数据中待编码块周围的参考块作为输入数据,使用空间循环神经网络进行预测,得到对应待编码块的预测值;
c)计算待编码块的预测值与实际值的SATD;
d)使用Adam优化器,使用Adam优化器和反向传播方法更新神经网络各层的参数;
e)重复步骤b)~步骤d),直到所述空间循环神经网络收敛。
6.一种对权利要求2所述方法编码的视频进行解码的方法,其步骤包括:
1)从码流中读取预测模式标志位;
2)如果该预测模式标志位是0,则读取码流中表示HEVC帧内预测描述的信息,使用对应的模式和已经解码的临近块,得到预测信号;如果该标志位是1,则使用空间循环神经网络进行预测,得到预测信号;
3)解码码流中编码的残差信息,将解码得到的残差信息与预测信号相加,得到对应编码块的解码重建信号。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810713756.9/1.html,转载请声明来源钻瓜专利网。





