[发明专利]一种基于巴氏相似性的目标视觉感知方法有效
| 申请号: | 201210582688.X | 申请日: | 2012-12-28 |
| 公开(公告)号: | CN103065316A | 公开(公告)日: | 2013-04-24 |
| 发明(设计)人: | 孙志海;周文晖;王云建;吴以凡;徐翀 | 申请(专利权)人: | 杭州电子科技大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00 |
| 代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 杜军 |
| 地址: | 310018 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 相似性 目标 视觉 感知 方法 | ||
技术领域
本发明属于计算机视觉感知技术领域,具体来说是一种基于巴氏相似性的目标视觉感知方法。
背景技术
在一些特定场景视频监控场合,需要对感兴趣区域的目标进行感知,感知的结果可用于目标检测,目标统计以及报警等用途。然而,目前基于视觉的主流方法都是以基于目标跟踪技术的检测或者基于目标运动的检测,该系列方法不稳定,且不适用于只允许静态图像传输的应用场合。然而除了利用目标运动信息,还可以利用感兴趣区域当前目标与背景的相似性度量作为目标视觉感知的另一种方法。这种方法不仅适用于视频监控场合,也同样适用于仅有静态图像传送的监控场合,同时进一步融入感知区域的自适应更新策略,使得本方法更加符合人类对目标的视觉感知方式。
发明内容
本发明提供了一种基于巴氏相似性的目标视觉感知方法,融合巴氏相似性度量对目标进行感知,其结果更加符合人类对目标的视觉感知方式。
一种基于巴氏相似性的目标视觉感知方法,包括:
(1) 根据输入的视频图像序列,通过手动方式对场景的感知区域进行设置,并在视频图像序列中对感知区域进行标记。
(2) 建立感知区域当前直方图模型,建立感知区域自适应背景直方图模型。
(3) 利用巴氏相似性计算公式,结合感知区域当前直方图模型和感知区域自适应背景直方图模型,计算感知区域直方图模型巴氏相似性系数。
(4) 用(3)算得的巴氏相似性系数进行巴氏相似性目标视觉感知。
(5) 对感知区域进行自适应背景更新。
所述的根据输入的视频图像序列,通过手动方式对场景的感知区域进行设置,并在视频图像序列中对感知区域进行标记包括以下步骤:
1)利用鼠标选择矩形框区域的方式或手工输入矩形框左上角与右下角(x, y)坐标的方式,对场景的感知区域进行设置。
2)利用1)获取的矩形框左上角与右下角(x,y)坐标,在每帧视频图像中对感知区域进行标记。
3)存储感知区域的当前视频图像数据,初始化感知区域自适应背景。
所述的建立感知区域当前直方图模型,建立感知区域自适应背景直方图模型包括以下步骤:
1)读入感知区域当前视频图像数据,读入感知区域自适应背景视频图像数据。
2)初始化感知区域当前直方图模型,初始化感知区域自适应背景直方图模型。
3)将感知区域当前直方图模型和感知区域自适应背景直方图模型划分为互不重叠的512个区间。
4)将每个视频图像像素的R取值、G取值和B取值,由原来的[0, 255]取值区间共256个取值,压缩至[0, 7] 取值区间共8个取值。
5)根据压缩后的每个视频图像像素新的R取值、G取值和B取值建立感知区域当前直方图模型和感知区域自适应背景直方图模型。
所述的利用巴氏相似性计算公式,结合感知区域当前直方图模型和感知区域自适应背景直方图模型,计算感知区域直方图模型巴氏相似性系数包括以下步骤:
1)输入已建立的感知区域当前直方图模型和感知区域自适应背景直方图模型。
2)利用巴氏相似性计算公式,结合1),算得巴氏相似性系数。
所述的用(3)算得的巴氏相似性系数进行巴氏相似性目标视觉感知包括以下步骤:
1)如果巴氏相似性系数大于上阈值THIGH(THIGH=0.85)则上阈值标记Th=1,下阈值标记Tl=0。
2)如果巴氏相似性系数低于下阈值TLOW(TLOW=0.7)则下阈值标记Tl=1。
3)当上阈值标记Th与下阈值标记Tl均等于1时,则感知到目标,否则未感知到目标。
4)当上阈值标记Th与下阈值标记Tl均等于1时,上阈值标记Th与下阈值标记Tl均复位为0。
所述的对感知区域进行自适应背景更新包括以下步骤:
1)获得感知区域的背景差视频图像Fcb。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210582688.X/2.html,转载请声明来源钻瓜专利网。





