[发明专利]一种基于SOCP的室内自动视觉指纹采集方法有效
申请号: | 201910384564.2 | 申请日: | 2019-05-09 |
公开(公告)号: | CN110321902B | 公开(公告)日: | 2021-07-13 |
发明(设计)人: | 谭学治;殷锡亮;马琳 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 刘冰 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 socp 室内 自动 视觉 指纹 采集 方法 | ||
1.一种基于SOCP的室内自动视觉指纹采集方法,其特征在于:所述方法具体过程为:
步骤一:使用人行走运动模型估计最小做功代价条件下的步频;
步骤二:基于步骤一得到的步频,根据高斯模型估计行进步长集合;
步骤三:根据采集视频中两相邻采样图像间隔时间,步长,步频计算每帧图像的位置信息;
步骤四:提取图像的SURF特征,保存SURF特征的位置和SURF特征的描述符;
步骤五:基于步骤四图像的SURF特征的描述符,计算相邻两帧采样图像的匹配SURF特征;
步骤六:根据采集相机的内参矩阵信息,匹配SURF特征,使用五点法计算两帧采样图像的相对旋转和位置信息;
步骤七:将步骤三得到的每帧的位置信息与步骤六得到的两帧采样图像的相对旋转和位置信息融合,建立SOCP模型,使用内点法,求解全局最优值,即得到视觉指纹的位置信息;
所述步骤一中使用人行走运动模型估计最小做功代价条件下的步频;
具体过程为:
步骤一一、求取人行走运动模型中总的能量消耗:
如式(1)所示,
其中Wt代表总的能量消耗,Wg代表为克服重力势能改变所需做的功,代表由于动能改变所需做的功;
步骤一二、求克服重力势能改变所需做的功Wg和克服动能改变所需做的功
人行走时腿、地面、与垂直方向所构成的几何关系,如式(2)所示,
其中,l是人的腿长,代表步长,θ代表已迈出腿与垂直方向的夹角,h为行进过程中重心高度的改变量;
由式(2)计算克服重力势能改变所需做的功Wg,
其中M为人的质量,g为重力加速度,v为人运动的速度;
由式(4)计算克服动能改变所需做的功
其中M为人的质量,代表步长,v为人运动的速度;
步骤一三、求出步频:
步频f如式(5)所示:
其中代表步长,v为人运动的速度;
根据式(2)-(5),式(1)改写成式(6):
式(6)对f求导,令dWt/df=0,得式(7):
其中,g为重力加速度,l为人的腿长。
2.根据权利要求1所述一种基于SOCP的室内自动视觉指纹采集方法,其特征在于:所述步骤二中根据高斯模型估计行进步长集合;
具体过程为:
步骤二一、根据录制视频的时长Tv,步频f,行进路线共需要行进步数为n=Tv×f;
步骤二二、根据高斯模型产生服从高斯分布的步长数据集
其中,代表步长的均值,代表步长的标准差,N()表示正态分布;
然后将步长数据集乘以步频,得到每秒行进的长度集
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910384564.2/1.html,转载请声明来源钻瓜专利网。