[发明专利]一种结合视频稳定的视频编码方法有效
申请号: | 201710365994.0 | 申请日: | 2017-05-23 |
公开(公告)号: | CN107071421B | 公开(公告)日: | 2019-11-22 |
发明(设计)人: | 黄华;魏晓翔;张磊 | 申请(专利权)人: | 北京理工大学 |
主分类号: | H04N19/13 | 分类号: | H04N19/13;H04N19/124;H04N19/176;H04N19/56;H04N19/573;H04N19/96;H04N5/232 |
代理公司: | 11639 北京理工正阳知识产权代理事务所(普通合伙) | 代理人: | 鲍文娟<国际申请>=<国际公布>=<进入 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 结合 视频 稳定 编码 方法 | ||
本发明涉及一种结合视频稳定的视频编码方法,包括以下步骤:对原始视频进行稳定处理,并提取视频稳定信息;计算稳定视频帧之间的变换矩阵;计算每一稳定帧中每个宏块对应的运动矢量;将上述运动矢量作为对应宏块运动搜索的起点,对每个宏块进行搜索,得到每个宏块的最佳运动矢量;得到每个子宏块的最佳运动矢量;选取匹配代价最小的宏块分割方式,进行运动补偿、量化和熵编码,得到最终的稳定视频压缩码流。本发明通过较少的计算量得到更加准确的运动矢量,在保证视频编码质量的同时极大地提高了编码速度。
技术领域
本发明涉及一种视频编码方法,特别涉及一种结合视频稳定的视频编码方法,属于视频处理领域。
背景技术
视频编码技术是一种视频压缩技术,主要通过去除视频中存在的空间冗余和时间冗余,达到压缩视频的目的。现在较为通用的编解码标准有国际电联的H.264标准、H.265标准、动态图像专家组的MPEG标准和微软的WMV标准等等。其中H.264的使用最为普遍。在H.264视频编码标准中,视频的每一帧都被划分为特定(以像素为单位)大小(16x16、16x8、8x16,8x8,8x4,4x8和4x4)的宏块。每个宏块通过帧内或者帧间的方式进行编码。无论是帧内编码还是帧间编码都需要有之前编码过的视频帧作为参考帧。对于帧内编码,作为参考的宏块是当前帧中已经编码的宏块通过重建得到的宏块。而对于帧间的编码,则需要一到两帧已经编码过的重建帧作为参考帧,由运动矢量指向参考帧中与当前要编码的宏块匹配代价最小(一般为内容最为接近)的宏块。将帧间编码或者帧内编码方式得到的预测值与当前宏块做差可以得到当前宏块对应的残差。将这个残差进行量化和熵编码操作即可得到最终的视频比特流,传输到网络抽象层(Network Abstraction Layer,NAL)进行网络传输或者存储。
在整个编码过程中,帧间编码是最为重要的部分,帧间编码的过程主要分为运动估计和运动补偿两个部分。运动估计过程的目的是在参考帧中搜索与当前要编码的宏块匹配代价最小的宏块(参考宏块),一般使用运动矢量来指向参考宏块,整个运动估计过程就是搜索这个运动矢量的过程。一般首先设置一个初始的运动矢量(由本帧中相邻的已编码宏块进行中值预测得到),根据该初始运动矢量得到搜索起点,然后使用三步法、六边形搜索算法和非对称十字多六边形网格搜索算法等进行搜索,每搜索一个点就计算以这个点为中心的宏块与当前宏块的匹配代价,最终得到使代价最小的运动矢量。为了得到最小的匹配代价,H.264编码标准中支持树形搜索策略,即首先对大小为16x16的宏块进行运动估计过程,然后将其分割为两个16x8的宏块同样按上述过程进行运动估计,每个宏块都要进行搜索得到一个运动矢量。如果两个16x8宏块运动估计后的匹配代价之和小于16x16宏块的匹配代价,那么就采用16x8的宏块分割策略,同样,可以将16x16大小的宏块分割为8x16或8x8大小的宏块,其中8x8大小的宏块又可以分割为8x4、4x8和4x4大小的宏块。运动补偿过程则是将参考宏块与当前宏块的内容(像素点)做差,以便于下一步的量化等过程。
手机、无人机、行车记录仪等移动终端的摄像机在拍摄视频时,容易受到外部不稳定运动环境的干扰,拍摄的视频往往存在画面抖动。这种抖动一方面降低了视频的观感体验,另一方面在对视频进行压缩编码时,增大了位置临近的视频帧之间的内容差异,使得在运动估计过程中,搜索到最佳匹配宏块的过程变得更加困难,从而增加了视频编码计算的复杂度和编码码率。而移动终端摄像机在使用时受电池、网络等因素影响,需要尽可能降低编码计算量以节省电力,并减少码率以节省存储成本和传输带宽。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710365994.0/2.html,转载请声明来源钻瓜专利网。