[发明专利]用于对变电站内多目标跟踪定位的方法在审
申请号: | 202010879688.0 | 申请日: | 2020-08-27 |
公开(公告)号: | CN112215873A | 公开(公告)日: | 2021-01-12 |
发明(设计)人: | 韩睿;刘黎;杨忠光;王威;蒋鹏;李斐然;冯宇哲;杨立川;刘爽 | 申请(专利权)人: | 国网浙江省电力有限公司电力科学研究院 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/246;G06T7/73 |
代理公司: | 浙江翔隆专利事务所(普通合伙) 33206 | 代理人: | 张建青 |
地址: | 310014 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 变电 站内 多目标 跟踪 定位 方法 | ||
1.用于对变电站内多目标跟踪定位的方法,其特征在于,包括,
S1:对通过摄像头采集到的变电站内设备图像集,进行预处理;
S2:使用目标检测器给识别图像中每一个被跟踪的目标,获取每一个目标的坐标信息;
S3:使用卡尔曼滤波预测目标的轨迹,根据目标在当前帧的状态预测其在下一帧的状态,并将估计预测结果存入T-Pre集合中;
S4:计算被目标在当前帧的状态与其在下一帧的预测状态的马氏距离,并比较所得结果与预设的第一阈值的大小;若所得结果小于或等于第一阈值,则进入S7,否则进入S6;
S5:使用卷积神经网络提取目标的外观特征,计算前、后帧的余弦相似度,并比较所得余弦距离与预设的第二阈值的大小;若所得余弦距离小于或等于第二阈值,则进入S7,否则进入S6;
S6:进行融合度量学习,将当前帧获得的目标的坐标信息存入已检测集合D中,将历史帧获得的目标的坐标信息存入跟踪集合T中,根据设置的权重系数j,计算包含T预测结果的T-Pre集合与D集合之间的马氏距离以及D中提取到的特征向量与历史轨迹T中提取到的特征向量平均值的余弦距离,并比较所得结果与预设的第一阈值的大小;若所得结果大于第三阈值,则进入S7;
S7:若D为空集,就将丢失帧计数加1,若丢失帧计数超过预设的第四阈值时,就认为该目标已消失,并将该目标的历史坐标信息从T中删除,重新进行检测;
S8:将变电站底图和被跟踪的目标之间进行透视变换,实现对目标的实时定位;
S9:输出最终的结果。
2.根据权利要求1所述的用于对变电站内多目标跟踪定位的方法,其特征在于,所述图像集为IMG,IMG={img1,img2,…,imgn},n为视频总帧数;
所述预处理包括灰度化处理、去噪声处理和图像增强处理;
所述灰度处理是对图像集IMG中的图像img采用加权平均法进行灰度化处理,将RGB表示的彩色图像像素值[R(x,y),G(x,y),B(x,y)]转化为灰度图像I(x,y),(x,y)为img中像素的坐标值,具体转化公式为I(x,y)=1/(3[R(x,y),G(x,y),B(x,y])。
3.根据权利要求2所述的用于对变电站内多目标跟踪定位的方法,其特征在于,
所述去噪声处理是通过高斯滤波法,对整幅灰度图像的像素值进行加权平均,针对每一个像素点的坐标值(x,y),都由其本身值和领域内的其他像素值经过加权平均后得到,去噪声公式为
4.根据权利要求2所述的用于对变电站内多目标跟踪定位的方法,其特征在于,所述图像增强处理是通过高通滤波法对图像进行锐化处理,锐化处理的公式为
y[imgi]=α*y[imgi-1]+α*(x[imgi]-x[imgi-1]);
其中,x[imgi]是第i张进行锐化处理前的图像采样值,x[imgi-1]是第i-1张进行锐化处理前输入图像采样值,y[imgi]是进行锐化处理后得到的第i张图像滤波值,y[imgi-1]是进行锐化处理后得到的第i-1张图像滤波值,α=2πfT1,T为采样周期。
5.根据权利要求2所述的用于对变电站内多目标跟踪定位的方法,其特征在于,所述目标检测器采用的是YOLOv3算法,输入的图像通过YOLOv3的网络结构后,获得的目标的坐标和检测框的构成的数组(x,y,w,h),x和y代表目标的坐标,w和h代表目标检测框的宽和高。
6.根据权利要求5所述的用于对变电站内多目标跟踪定位的方法,其特征在于,所述步骤S3中,先在检测框的边缘取一点(dx(k),dy(k))作为跟踪特征点,并选择检测框的宽度w和高度h作为其他两个特征变量以构成一个四维状态变量;再使用卡尔曼滤波算法来预测所述跟踪特征点的四维状态变量,并将预测结果存入T-Pre集合中。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网浙江省电力有限公司电力科学研究院,未经国网浙江省电力有限公司电力科学研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010879688.0/1.html,转载请声明来源钻瓜专利网。