[发明专利]一种高速公路监控场景下多车辆视频跟踪方法无效
| 申请号: | 201010144098.X | 申请日: | 2010-04-08 |
| 公开(公告)号: | CN101800890A | 公开(公告)日: | 2010-08-11 |
| 发明(设计)人: | 魏奇;李超;闻佳;熊璋 | 申请(专利权)人: | 北京航空航天大学 |
| 主分类号: | H04N7/18 | 分类号: | H04N7/18;G08G1/01 |
| 代理公司: | 北京慧泉知识产权代理有限公司 11232 | 代理人: | 王顺荣;唐爱华 |
| 地址: | 100191 北京市海淀*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 高速公路 监控 场景 车辆 视频 跟踪 方法 | ||
1.一种高速公路监控场景下多车辆视频跟踪方法,其特征在于包括如 下步骤:
(1)检测车辆运动区域:包括对高速公路监控车道区域进行自适应估 计和采用快速约束三角剖分方法检测车辆目标区域;
(2)建立多车辆目标模型:包括采用车辆状态模型二次自回归模型进 行预测,观测模型采用颜色直方图特征和局部积分方向描述子特征融合建 模,采用阈值方法判断车辆进、出监控区域
(3)基于分层粒子滤波的车辆跟踪:采用Camshift算法与粒子滤波分 层次相融合方法进行鲁棒跟踪;
其中,所述步骤(1)首先对高速公路监控车道区域进行自适应估计:
假设第(k+1)帧中,背景像素点p的灰度值表述为:
G(k+1,p)=G(k,p)+L(k,p)+noise1(k,p)
其中,G(k,p)是第k帧中,背景像素点p的灰度值;L(k,p)是描述光照随着 时间变化的不确定模型;noise1(k,p)为以零为中心的高斯白噪声;输入图像 像素点p的灰度表示为:
I(k,p)=G(k,p)+noise2(k,p)
其中,noise2(k,p)为一个以零为中心的高斯白噪声;消去系统测量误差得到:
I(k+1,p)=G(k,p)+ω(k+1,p)
其中,ω(k+1,p)=L(k,p)+noise1(k,p)+noise2(k+1,p),且ω(k,p)是高斯分 布;
其中,所述步骤(1)的检测车辆目标区域采用快速约束三角剖分方法, 包括如下步骤:
1)通过Canny算子提取轮廓信息;
2)对图像轮廓应用Hough变换取得图像中的直线集合;
3)提取直线两端点得到角点集合;
4)以所有约束边为基础,构建初始约束三角网,并依次插入所有独立 角点;
5)提取角密度,水平直线密度,密度垂直直线,三角形密度和车辆区 域的平均亮度构建特征向量;
6)将候选区域中的五个特征向量输入以K(x,y)=x×y为核函数的支持 向量机中,得到输出ESVM,当ESVM大于系统设定的置信阈值Eξ的时候,则 该区域为真实车辆区域;
其中,所述步骤(2)的车辆状态模型定义为:S=(x,y,l,h)T,其中,(x,y) 构成被跟踪目标的中心点C=(x,y)T,搜索窗W=(l,h)T是长为l,宽为h的 矩形;采用二次线性自回归的方法预测当前的状态:
p(Sk|Sk-1,Sk-2,…,S1)~N(Sk;2Sk-1-Sk-2,∑);
多车辆目标时,状态预测模型为:
p(Sk(m)|Sk-1(m),…,S1(m))~N(Sk(m);2Sk-1(m)-Sk-2(m),∑(m))
其中,假设目标之间是相互独立的,且当前有M个车辆目标,Sk(m)表示第k 帧中第m个车辆目标的状态;
其中,所述步骤(2)的车辆观测模型是由RGB颜色直方图特征和局部 积分方向描述子特征进行融合构成的:
p(Ok|Sk)∝pcolor(Ok|Sk)pLIOD(Ok|Sk),其中,是基 于RGB颜色直方图特征的观测函数,是局部积分 方向描述子特征的观测函数,Ok为当前视频帧,B(·,·)是巴氏距离;H和H*分别是从被Sk覆盖的区域中估计出的候选颜色直方图和参考颜色直方图; HLIOD和分别是从被Sk覆盖的区域中估计出的候选局部积分方向描述 子直方图和参考局部积分方向描述子直方图;
其中,所述局部积分方向描述子是对局部图像梯度的方向采用得到8个 分格,每个像素位置的梯度方向由其梯度值加权得到,每一个像素位置的第 t个分格在s尺度时的加权梯度方向直方图定义如下:
其中,是梯度向量,即为像素点(x,y)处的梯度Gx(x,y),Gy(x,y);R是 在像素点(x,y)的作为尺度函数的局部支持区域的尺寸;Z是标准化因子, ω(x,y,k)是第t个分格的方向计数器:
其中,θ(x,y)是像素点(x,y)的梯度方向角arctan(Gy(x,y)/Gx(x,y));
其中,所述步骤(2)中对车辆进、出监控区域采用阈值方法进行判断:
1)车辆进入监控区域:Tin为判断新车辆目标进入视场的阈值,第k帧时 有J个车辆目标,第k-1帧有M个车辆目标,且有J>M,满足以下条件时有 车辆进入监控区域:
2)车辆退出监控区域:Tout为判断车辆目标离开视场的阈值,第k帧时 有P个车辆目标,第k-1帧有M个车辆目标,且有P<M,满足一下条件时有 车辆退出监控区域:
其中,则表示第k帧中第m个车辆目标的第i个粒子的状态;
其中,所述步骤(3)采用Camshift算法与粒子滤波分层次相融合方法 进行鲁棒跟踪的具体步骤为:
1)将(0,1]分成N个连续互不重合的区间,即N 即为初始化的粒子个数;
2)对每个独立同分布采样得到的初始粒子集{Si}i=1,2,…,N,有 其中U((u,v])表示在区间(u,v]上的均匀分布;
3)粒子状态的期望值并得到该粒子的权重
4)将粒子集随机地分成2个数目相等子集:
5)对其中一个子集的每一个粒子进行迭代:
选择加权值最大的粒子,然后我们使用该子集中的所有粒子,来计算这 个粒子状态中心点的平均位移,进而接近其局部模式:
其中,{Cj}j=1...N/2是状态在矩形区域像素坐标点;m(Cj)是在点Cj处像素值 的相似权重,它是对应的H*和的直方图二进制比率的平方根;g()是 一个核函数;r是标准化后的窗口半径;
该粒子的状态中心点均以最新的状态中心近似构成:
该粒子的窗口尺寸,利用如下方法进行调整:
其中k是一个经验常量值,零阶矩M00按照以下公式计算:
该粒子权重也进行相应为:
将经过一次迭代的子集与原有不变的子集合并,得到新的粒子 集同时对两个子集的权值合并且正则化
协方差按照迭代次数成指数级递减,即有j=1,2,…,I,其中I是 迭代次数;得到新的状态概率密度函数;
6)迭代结束,输出对当前状态的估计:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201010144098.X/1.html,转载请声明来源钻瓜专利网。





