[发明专利]轮式移动机器人视觉伺服轨迹跟踪并发深度辨识在审
申请号: | 201711171646.6 | 申请日: | 2017-11-20 |
公开(公告)号: | CN109816687A | 公开(公告)日: | 2019-05-28 |
发明(设计)人: | 李宝全;邱雨;师五喜;徐壮 | 申请(专利权)人: | 天津工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/579;G05D1/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 300387 *** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 辨识 轮式移动机器人 特征点 并发 自适应更新 单应矩阵 轨迹跟踪 深度信息 视觉伺服 图像视频 场景深度信息 轨迹跟踪误差 静态参考图像 系统数据恢复 定理证明 关系建立 期望轨迹 深度参数 实时图像 视觉跟踪 伺服轨迹 学习算法 预先录制 运动控制 运动约束 非完整 有效地 跟踪 收敛 录制 场景 分解 | ||
1.一种轮式移动机器人同时视觉轨迹跟踪并发自适应深度辨识方法,其特征在于包括以下步骤:
第1,定义系统坐标系,包括:
第1.1,建立系统模型
定义轮式移动机器人的坐标系如下:以表示摄像机相对于静止特征点的参考坐标系,以表示轮式移动机器人当前位姿坐标系,以表示对应于轮式移动机器人期望位姿的直角坐标系,由共面特征点Pi确定的平面为参考平面π,定义平面π的单位法向量为n*,3-D欧氏坐标Pi在下分别用来表示:
假设各个坐标系的原点到特征点沿光轴方向的距离恒为正,从到的旋转矩阵为从到的平移向量为其中cT*(t)为在中表示。同样表示期望从到的时变期望旋转矩阵,从到的期望平移向量为其中dT*(t)在中表示,cT*(t)和dT*(t)的定义如下:
cT*(t)=[cT*x,0,cT*z]T,dT*(t)=[dT*x,0,dT*z]T. (2)
种定义如下:
定义如下:
另外表示从到的旋转矩阵的右手旋转角度,θd表示到的旋转矩阵的右手旋转角度,可以看出:
其中代表WMR的期望角速度在中的表示,从到π的沿π的单位法向量的距离设为则
d*=n*TPi* (6)
其中表示π的单位法向量。
第1.2,欧式重建
首先重建特征点和的归一化欧式坐标Pi在和下的表示:
为了得到欧氏坐标,每个特征点由下的下的下的示的投影像素坐标,他们是(即实际时变图像点),(即期望轨迹图像点),(即恒定参考图像点)的元素,特征点的归一化欧氏坐标通过针孔镜头模型与图像点建立如下关系:
其中是已知不变的摄像机内参数标定矩阵,坐标系之间的旋转矩阵和平移向量可由归一化欧氏坐标表示如下:
其中H(t),表示欧氏单应矩阵,为含有比例因子的平移向量:
然后通过欧几里得重建技术分解H和Hd,得到
第3,构建自适应控制器
根据系统的开环动态方程,为配有摄像机的移动机器人系统设计控制器和自适应更新律,控制的目的是确保坐标系跟踪上的时变轨迹,用e(t)=[e1,e2,e3]T表示平移和旋转跟踪误差,具体定义如下:
其中cT*h1(t),cT*h2(t),dT*h1(t)和dT*h2在(10)中定义,θ(t),θd(t)在(4)中定义。另外辅助变量定义如下:
开环误差方程为:
深度估计误差定义如下:
是深度辨识,当趋向于零时未知的深度信息将会有效的识别出来,轮式移动机器人设计的线速度和角速度如下所示:
根据并发学习方法,为深度辨识设计自适应更新律,其形式如下:
其中为更新增益,为正常数,tk∈[0,t]是初始时间和当前时间之间的时间点。投影函数Proj(χ)定义为:
其中是正值的下界,因而有可以得到下式:
根据之前的推导,闭环误差系统如下:
当下式成立:
至此,完成了移动机器人同时视觉伺服轨迹跟踪与并发自适应深度辨识。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津工业大学,未经天津工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711171646.6/1.html,转载请声明来源钻瓜专利网。