[发明专利]轻量级的基于深度学习的惯性辅助视觉里程计实现方法有效
申请号: | 201910878954.5 | 申请日: | 2019-09-18 |
公开(公告)号: | CN110595466B | 公开(公告)日: | 2020-11-03 |
发明(设计)人: | 肖卓凌;郭子彬;王亚文;阎波 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G01C21/16 | 分类号: | G01C21/16;G01C22/00;G06N3/04;G06N3/08 |
代理公司: | 成都正华专利代理事务所(普通合伙) 51229 | 代理人: | 陈选中 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 轻量级 基于 深度 学习 惯性 辅助 视觉 里程计 实现 方法 | ||
1.一种轻量级的基于深度学习的惯性辅助视觉里程计实现方法,其特征在于,所述视觉里程计包括TVnet光流提取网络、密集卷积网络以及扩展卡尔曼滤波器,所述惯性辅助视觉里程计实现方法包括以下步骤:
S1、机器人在移动过程中,通过相机获取连续视频帧数据,通过惯性测量单元获取加速度数据和角速度数据;
S2、采用所述TVnet光流提取网络学习所述连续视频帧数据,并得到光流特征;
S3、将所述光流特征输入所述密集卷积网络中进行处理,并输出得到初步位姿数据,所述初步位姿数据包括位置向量I、姿态向量I、位置向量I预测方差和姿态向量I预测方差;
S4、对所述加速度数据和所述角速度数据进行积分,得到位置向量II、姿态向量II、位置向量II方差和姿态向量II方差;
S5、通过所述扩展卡尔曼滤波器将位置向量I、姿态向量I、位置向量I预测方差、姿态向量I预测方差、位置向量II、姿态向量II、位置向量II方差和姿态向量II方差进行数据融合,得到融合后的位姿数据。
2.根据权利要求1所述轻量级的基于深度学习的惯性辅助视觉里程计实现方法,其特征在于,所述密集卷积网络包括一个7×7的卷积层、一个平均池化层、四个DenseBlock模块、三个transition模块以及一个全连接层网络。
3.根据权利要求2所述轻量级的基于深度学习的惯性辅助视觉里程计实现方法,其特征在于,四个所述DenseBlock模块所使用的bottleneck的数量分别为4个、6个、8个和12个,每个bottleneck均包括一个1×1的卷积层和一个3×3的卷积层;每个transition模块均包括一个1×1卷积核和一个2×2池化层。
4.根据权利要求3所述轻量级的基于深度学习的惯性辅助视觉里程计实现方法,其特征在于,各bottleneck依次排序,第i个bottleneck的输入函数公式为:
xi=H[X0,X1,…,Xi-1]
其中,xi-1代表第i-1层的特征地图,H代表拼接操作。
5.根据权利要求1所述轻量级的基于深度学习的惯性辅助视觉里程计实现方法,其特征在于,所述步骤S5中,通过扩展卡尔曼滤波器进行数据融合的方法具体包括:
A1、根据位置向量I、姿态向量I及位置向量I预测方差、姿态向量I预测方差进行状态预测:
St=St-1+∑t
其中,Tvt为t时刻位置向量I,Rvt为t时刻姿态向量I,μt-1为t-1时刻的位姿向量,为t时刻的位姿向量,∑t为t时刻协方差矩阵,St-1为t-1时刻的测量累积误差,St为t时刻的测量累积误差;
A2、为位置向量I预测方差添加惩罚项:
QTt=QT(t-1)+A×(b×t)c;
其中,QT(t-1)为t-1时刻的预测位移方差矩阵,QTt为t时刻的预测位移方差矩阵,A、b、c均为可调参数;
A3、数据融合:
K=S/(S+Qt)
其中,QRt为t时刻的预测旋转方差矩阵,Qt为t时刻的预测方差矩阵,K为卡尔曼增益,μt即为融合后的位姿数据,Tj为位置向量II,Rj为姿态向量II。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910878954.5/1.html,转载请声明来源钻瓜专利网。