[发明专利]基于阈值矩阵和特征融合视觉单词的人物行为识别方法有效
申请号: | 201410222664.2 | 申请日: | 2014-05-23 |
公开(公告)号: | CN104616316B | 公开(公告)日: | 2017-11-10 |
发明(设计)人: | 龚声蓉;谢飞;刘纯平;王朝晖;季怡 | 申请(专利权)人: | 苏州大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/00 |
代理公司: | 北京康盛知识产权代理有限公司11331 | 代理人: | 伊美年 |
地址: | 215123 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于阈值矩阵和特征融合视觉单词的人物行为识别方法,其特征在于,包括以下步骤首先采用显著度计算法提取视觉单词,具体如下,对训练视频帧进行显著度计算,取得人物所在的区域位置,然后对区域内外采取不同的阈值进行兴趣点检测,基于取得的兴趣点计算出视觉单词;然后对取得的视觉单词进行建模分析,建立动作的模型;在动作模型建立好后,对测试视频帧采用同样的显著度计算法提取视觉单词,然后将取得的视觉单词作为输入,放入建好的动作模型中进行分类;最后将动作的分类结果作为测试视频中人物行为的标签返回出来,完成人物行为的识别。本发明可以有效地解决复杂场景下人物行为识别准确度的问题。 | ||
搜索关键词: | 基于 阈值 矩阵 特征 融合 视觉 单词 人物 行为 识别 方法 | ||
【主权项】:
一种基于阈值矩阵和特征融合视觉单词的人物行为识别方法,其特征在于,包括以下步骤:首先采用显著度计算法提取视觉单词,具体如下,对训练视频帧进行显著度计算,取得人物所在的区域位置,然后对区域内外使用不同的阈值,通过计算得到每一个像素点的阈值矩阵后,再寻找局部最大值作为兴趣点,计算兴趣点的3D‑SIFT特征和整帧图像的HOOF特征,然后将所述3D‑SIFT特征和HOOF特征谱聚类,得到视觉单词;然后对取得的视觉单词进行建模分析,建立动作的模型;在动作模型建立好后,对测试视频帧采用同样的显著度计算法提取视觉单词,然后将取得的视觉单词作为输入,放入建好的动作模型中进行分类;最后将动作的分类结果作为测试视频中人物行为的标签返回出来,完成人物行为的识别,其中所述动作模型为TMBP主题模型,所述TMBP主题模型是指在LDA模型基础上进行改进的主题模型,改进方式是采用因子图来表示LDA模型,以一定的概率将每个视觉单词索引赋予各个主题,在参数推导过程中保留所有的后验概率信息,并且在视频处理中的视频、视觉单词和行为标签与文本处理中的文档、单词和主题分别一一对应。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410222664.2/,转载请声明来源钻瓜专利网。