[发明专利]一种基于特征选择与光滑表示聚类的视频动态目标提取方法有效
申请号: | 201711030113.6 | 申请日: | 2017-10-30 |
公开(公告)号: | CN107808391B | 公开(公告)日: | 2020-10-02 |
发明(设计)人: | 郑建炜;路程;杨平;秦梦洁;杨弘;陈婉君 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/10 |
代理公司: | 杭州天正专利事务所有限公司 33201 | 代理人: | 王兵;黄美娟 |
地址: | 310014 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特征 选择 光滑 表示 视频 动态 目标 提取 方法 | ||
一种基于特征选择与光滑表示聚类的视频动态目标提取方法,包括如下步骤:(1)对视频数据进行预处理,编码成视频序列矩阵Y;(2)以视频序列矩阵Y为输入,建立FSSR聚类模型;(3)使用增广拉格朗日函数和交替方向乘子法对聚类模型进行优化,获得最优系数矩阵Z*;(4)使用公式(|Z*|+|Z*T|)/2,计算关联矩阵S;(5)使用规范化分割算法对关联矩阵S进行分割,根据聚类结果获取动态目标图像。本发明具有运行效率高、数据适应性强、准确度高、运动一致性强等的优点,非常适合高维特征视频数据的目标提取。
技术领域
本发明涉及一种基于特征选择与光滑表示聚类的视频动态目标提取方法,可用于目标跟踪和目标检测。
背景技术
计算机视觉中对视频序列场景的分析和理解是其中一项重要的研究内容,其应用包括:视频编码、治安监控、智能交通、自动导航、机器视觉、医学图像、气象图像等等。视频序列场景的分析和理解包括运动目标的跟踪、检测、分割、估计和识别,其中对动态目标的提取是视频序列场景分析和理解的前提。
视频动态目标提取的关键问题是根据场景中提取的视觉特征,对视频序列中不同的运动物体进行聚类划分。常用的视频动态目标提取算法分为三个大类:基于透视几何约束的算法,例如对极几何和Planar-Parallax分解;基于仿射相机模型的算法,例如子空间聚类;基于轨迹相似性的聚类算法,例如光流法。
近几年国内外很多学者采用仿射相机模型,利用高维数据中存在的低维子结构,将视频动态目标提取问题转化为子空间划分问题,借助相关的子空间聚类算法很好的解决了视频动态目标提取中鲁棒性、相机运动、大规模高维数据等问题。基于子空间聚类的视频动态目标提取方法构造衡量数据点两两之间相似程度的关联矩阵,利用相关的谱聚类方法划分关联矩阵,最终完成视频动态目标提取。相关的子空间聚类算法众多,当中最为典型的是低秩子空间聚类和稀疏子空间聚类。稀疏子空间聚类利用数据本身作为字典,寻找每个数据点关于其他数据点的最优稀疏表示;低秩子空间聚类利用整个数据作为字典,寻找每个数据点关于其他数据点的最优低秩表示。低秩表示带有全局约束,稀疏表示对表示系数不带有显式的全局约束,抗噪声干扰方面表现较好,而这两种方法在数据信噪比小、子空间不相互独立时,其构造的关联矩阵块对角结构较差,从而不利于正确聚类。
特征选择(Feature Selection)是指从原始特征集合中选择相关特征子集的操作,实际应用中,越来越多的高维数据降低了学习性能,特征选择是解决这一问题的有效方法。
规范化分割(Normalized cut)算法是基于Shi和Malik在2000年建立的2-way划分的规范割目标函数的谱聚类分割方法。该方法不仅能够衡量类内样本间的相似程度,也能衡量类间样本间的相异程度。
发明内容
本发明要解决传统视频动态目标提取技术中存在高维数据计算复杂、实时性差、抗噪声能力差等缺点,提供一种基于特征选择与光滑表示聚类的视频动态目标提取方法,可用于目标跟踪和目标检测。
针对实际视频数据存在的高维特征,使用特征选择操作进行维数约简,进一步使用权值因子来衡量特征相关贡献度;鉴于传统稀疏与低秩表示存在的块对角化的苛刻条件,使用具有组效应的迹范数约束表示系数矩阵,增强其块对角化,通过提高子空间聚类的准确率最终提高视频动态目标提取的准确度。本发明提出的基于特征选择与光滑表示聚类(Feature Selection and Smooth Representation,FSSR)的视频动态目标提取方法,包括如下步骤:
步骤1,对视频数据进行预处理,编码生成视频序列矩阵Y;
步骤2,以视频序列矩阵Y为输入,建立FSSR聚类模型;
步骤3,使用增广拉格朗日函数和交替方向乘子法对聚类模型进行优化,获得最优系数矩阵Z*;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711030113.6/2.html,转载请声明来源钻瓜专利网。