[发明专利]具有相同背景的视频图像中出错宏块处理方法有效
申请号: | 200710202649.1 | 申请日: | 2007-11-23 |
公开(公告)号: | CN101272490A | 公开(公告)日: | 2008-09-24 |
发明(设计)人: | 廖志坚 | 申请(专利权)人: | 成都三泰电子实业股份有限公司 |
主分类号: | H04N7/26 | 分类号: | H04N7/26 |
代理公司: | 成都虹桥专利事务所 | 代理人: | 李顺德 |
地址: | 610091四川省成都*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 具有 相同 背景 视频 图像 出错 处理 方法 | ||
技术领域
本发明涉及视频图像解码技术,特别涉及视频图像中出错宏块的处理方法。
背景技术
数字媒体的应用已经深入到了社会的各个领域,从家庭娱乐,安防监控到广电系统,人们生活的方方面面都与数字媒体有关,数字媒体产品在家庭、金融、交通、平安城市等行业中得到了大规模的应用。目前监控系统,尤其是银行监控系统都采用集中监控的技术。各个监控点采集的视频数据,按照一定的视频编码标准,如当前比较流行的H264、AVS等,编码后通过网络传输到各个监控中心。在传输的过程中,丢包等网络错误难以避免,直接丢弃有错误的帧解码下一帧的处理方式,已经不能满足愈来愈高的视频解码精度要求。视频误码掩盖技术是目前热门的研究课题,有很多新发表的算法,大多是集中在通用的视频数据处理方面,充分利用视频数据在时域和频域的冗余来达到误码掩盖的目的。
现有技术的不足之处是:
目前开发的通用视频误码掩盖算法,多应用于数字娱乐等领域,没有针对视频监控的特点做特殊的优化和处理。目前广泛采用的出错宏块运动矢量导出方法,仅仅考虑了运动物体在空间上的相关性,而没有考虑运动物体在时间上的相关性。
发明内容
本发明所要解决的技术问题,就是针对视频监控图像背景相对固定的特点,提供一种视频图像中出错宏块处理方法。
本发明解决所述技术问题,采用的技术方案是,具有相同背景的视频图像中出错宏块处理方法,包括以下步骤:
a.检测到视频图像当前帧中宏块D为出错宏块,根据宏块D的相邻宏块N在上一帧中的对应宏块N/的位置,确定宏块D在上一帧中的对应宏块D/的大致位置;
b.设宏块N、宏块N/、宏块D/解码后的图像,减去同一背景图像S相应位置后,在其差值图像中的对应宏块分别为宏块n、宏块n/及宏块d/;如果宏块n、宏块n/及宏块d/的像素值均小于门限值T1,则进入步骤c,否则进入步骤d;
c.以所述背景图像S对应位置的像素作为宏块D的像素;
d.分析d/与n/中各个宏块的连通性,如果d/仅与n/中某一宏块连通,该宏块在当前帧中对应为宏块E,则以宏块E的运动矢量mvE作为宏块D的运动矢量mvD,进入步骤e;如果d/与n/中某些宏块连通,这些宏块在当前帧中分别对应为宏块E1、宏块E2…,则以宏块E1、宏块E2…的运动矢量mvE1、mvE2…,按照一定的规则作为当前宏块D的运动矢量mvD,进入步骤e;如果d/与n/中的任何一个都不连通,则执行步骤c;
e.根据步骤d确定的运动矢量mvD,在上一帧解码后的图像与背景图像S的差值图像Spre中找到与宏块D对应的宏块,对于该宏块的每个像素点,如果该像素点及周围一定范围内的像素点的值小于门限值T2,则用背景图像在该点的像素值作为该点的像素值,否则使用mvD做运动补偿得到对应点的像素值。
本发明的有益效果是,充分利用视频监控图像背景固定的特点,既考虑到运动物体在空间上的相关性,也兼顾了运动物体在时间上的相关性。以较低的运算复杂度达到了较好的差错掩盖效果。
附图说明
图1是当前帧中宏块D与相邻宏块的位置关系示意图;
图2是上一帧中宏块D/与相邻宏块的位置关系示意图;
图3是实施例的流程图。
具体实施方式
本发明的技术方案,充分利用了监控视频中,背景图像固定的特点,既考虑到运动物体在空间上的相关性,也兼顾了运动物体在时间上的相关性,但误码掩盖处理计算却相对简单得多。为了便于描述本发明的技术方案,我们规定:当前已经解码的图像Fcur减去背景图像S的对应部分得到当前已经解码的部分中相对背景帧所增加的对象,相减所得结果为差值图像Scur;用上一帧已经解码的图像Fpre减去背景图像S得到上一帧中相对背景所增加的对象,相减所得的结果为差值图像Spre。
实施例
对应每个摄像头,存储一个或者多个背景图片,当监控视频在传输过程中发生了丢包等错误并检测出出错位置后,按照以下步骤处理出错宏块的解码:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都三泰电子实业股份有限公司,未经成都三泰电子实业股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200710202649.1/2.html,转载请声明来源钻瓜专利网。