[发明专利]识别视频帧中的乱真区有效
申请号: | 200680003955.6 | 申请日: | 2006-02-06 |
公开(公告)号: | CN101116107A | 公开(公告)日: | 2008-01-30 |
发明(设计)人: | 雷帮军;许利群 | 申请(专利权)人: | 英国电讯有限公司 |
主分类号: | G06T7/20 | 分类号: | G06T7/20 |
代理公司: | 北京三友知识产权代理有限公司 | 代理人: | 李辉;吕俊刚 |
地址: | 英国*** | 国省代码: | 英国;GB |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 识别 视频 中的 乱真 | ||
技术领域
本发明涉及用于对视频帧、特别是包括视频序列的一部分的视频帧中的乱真区(spurious region)进行识别的方法和系统。
背景技术
数字视频处理的应用范围很广。例如,现代视频监视系统采用数字处理技术在视频中提供与移动对象有关的信息。这种系统典型地包括直接或经由网络链路连接至计算机系统的视频摄像机。计算机系统运行被设置用于处理并分析从摄像机提供的视频数据的软件。
图1是示出这种监视系统的软件级阶段的框图。在第一阶段1中,从视频数据的初始段获知背景模型。该背景模型通常包括表示相对静态背景内容的统计信息。在这方面,应当明白,与前景中的对象相比,背景场景会保持相对静止。在第二阶段3中,对每个输入视频帧进行前景提取和背景适应。将当前帧和背景模型进行比较,来估计当前帧的哪些像素表示前景区,而哪些像素表示背景区。还对背景模型中的微小变化进行更新。在第三阶段5中,从帧到帧跟踪前景区,并且在当前帧的前景区与之前帧中被跟踪的前景区之间建立对应。同时,更新轨迹数据库,以使每个前景区的跟踪历史都可用于高级应用7,高级应用7例如可以对一个或更多个跟踪对象进行行为分析。
处理了每个视频帧之后,对背景模型进行有效性验证9,以确定它是否仍旧有效。所采集的场景的显著或突然变化可能需要返回第一阶段1进行新背景模型的初始化。
美国专利申请公报No.2003/0053659 A1中公开了一种已知的智能视频系统。Stauffer和Grimson在“Learning Patterns of Activity usingReal-Time Tracking”,IEEE Transactions on Pattern Analysis and MachineIntelligence,Volume 22,No.8,August 2000中公开了一种已知的前景提取和跟踪方法。
在前景提取阶段3中,共同的是,要将一些图像区分类为前景对象,虽然事实上并非如此。例如,如果视频场景包含重复性运动(如,树上的树叶前后摆动),则前景提取阶段3可以将移动区分类为前景,虽然事实上树叶形成了背景场景的部分。另外,采集、编码以及解码视频数据的处理将不可避免地将噪声引入系统。这种噪声可能会通过前景提取阶段3的固有操作而被检测为前景。考虑这种不正确分类的图像区,并且在此称为乱真区。
人们希望识别出视频帧中的这种乱真区。这样,对于要在感兴趣的真实区上进行后续处理步骤的目的来说,就可以忽视这些区域。例如,人们希望仅在真实前景区上运行对象跟踪阶段5。由于尝试跟踪表示重复运动或噪声的区域,视频处理系统将有价值的处理和存储器资源浪费在了用户不感兴趣的数据上。
发明内容
本发明的第一方面提供了一种对出现在视频序列中的对象进行跟踪的方法,该视频序列包括多个帧,每个帧都包括多个像素,所述方法包括以下步骤:(i)对所述视频序列中的第一帧和第二帧进行比较,以识别其中的像素表示进行帧间运动的对象的区域;(ii)确定所述区域是否出现在预定数量的后续帧中,如果是,则为所述区域分配一表示其位置在所述预定数量的帧上的改变的运动参数;(iii)将所述运动参数与一阈值进行比较,以确定是否要跟踪所述区域;以及(iv)如果要跟踪所述区域,则针对识别出所述区域的后续帧,记录所述区域的帧位置。
本发明的优选特征在附加于此的从属权利要求中限定。
本发明的另一方面提供了一种对出现在视频序列中的对象进行跟踪的方法,该视频序列包括多个帧,每个帧都包括多个像素,所述方法包括以下步骤:(i)对所述视频序列的第一帧和第二帧进行比较,以识别其中的像素表示进行帧间运动的对象的区域;(ii)基于所述区域在所述多个视频帧上的运动特征,向其分配一运动参数ζm;以及(iii)针对所述视频序列的识别出所述区域的后续帧,只有当所述区域的运动参数小于一预定阈值Tζ时才记录所述区域的帧位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于英国电讯有限公司,未经英国电讯有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200680003955.6/2.html,转载请声明来源钻瓜专利网。