[发明专利]一种基于模板匹配的单目相机物体位姿估计方法及系统在审
申请号: | 202010619253.2 | 申请日: | 2020-07-01 |
公开(公告)号: | CN111768447A | 公开(公告)日: | 2020-10-13 |
发明(设计)人: | 刘振;范晓东;武帅;宋思远;丁亮;洪伟 | 申请(专利权)人: | 哈工大机器人(合肥)国际创新研究院 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/33;G06T5/40;G06T3/60 |
代理公司: | 合肥市浩智运专利代理事务所(普通合伙) 34124 | 代理人: | 张景云 |
地址: | 236000 安徽省合肥市经*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模板 匹配 相机 物体 估计 方法 系统 | ||
本发明提供一种基于模板匹配的单目相机物体位姿估计方法,包括以下步骤:根据物体3D模型的投影,以物体3D模型的质心或重心为基准坐标系原点,原点记作P,对基准坐标进行空间坐标转化,将基准坐标系转化为以观察点P’为原点的目标坐标系,记录此时物体的三维位置以及P’点到物体3D模型之间的距离,即生成二维模板数据集,形成目标模板图像;图像预处理,得到目标二维图像;物体位姿识别。本发明以模板匹配算法为基础,可根据需求调节观测距离和基准坐标原点。对于新的待识别目标物体,只需要其3D模型即可快速生成大量模板数据集,算法的可移植性较强。本发明在硬件传感器上只需使用单目2D摄像机,能够降低硬件成本。
技术领域
本发明涉及物体位姿评估技术领域,具体来说是一种基于模板匹配的单目相机物体位姿估计方法及系统。
背景技术
近年来,计算机视觉相关的技术迅速发展,物体位姿检测是计算机视觉领域最热门的研究领域之一。而使用位姿估计算法估算物体3D模型相对于摄像机的位置姿态,在物体位姿识别实际应用中尤为重要。
位姿估计的信息获取必须使用硬件传感器,根据原理不同,完成位姿估计使用到的传感器分为激光雷达和摄像机。在视觉领域可分为单目视觉位姿估计、多目视觉位姿估计和3D视觉位姿估计。在目前的生产技术水平下,现有多目和3D相机价格都比较贵,后者价格普遍在数十万元以上。在实际工业应用中,既要保证算法的处理速度、稳定性以及鲁棒性,也要把产品成本控制在较低范围,此时价格较低的单目相机受到消费者们的重视。
根据算法使用的先验条件不同,位姿估计算法可以分为基于特征点的位姿估计方法、基于神经网络的位姿估计算法和基于模型的位姿估计算法。基于特征点的位姿估计方法从图像中提取出有效特征点与标准图像进行匹配。这种方法不仅耗时,而且只使用到图像中特征点信息,信息利用率不高。而且如果遇到图像含有特征点较少的情形,对位置和角度的估计出现严重偏差的几率较大。基于神经网络的位姿估计算法虽然具有极强的泛化能力,但对硬件算力要求较高,无形中提升了硬件成本。基于模型的位姿估计算法需要提前构建物体的模型,能较强适用于具有形状较规则的物体,且对硬件算力要求低。
发明内容
本发明要解决的是现有技术对于物体位姿评估结果误差大、对硬件要求高的技术问题。
本发明通过以下技术方案来解决上述技术问题:
一种基于模板匹配的单目相机物体位姿估计方法,包括以下步骤:
S100、建立目标模板图像库
根据物体3D模型以球形相机的视野进行多角度、不同距离的投影,光照模式选择为模拟平行光投影;以物体3D模型的质心或重心为基准坐标系原点,原点记作P,对基准坐标进行空间坐标转化,将基准坐标系转化为以观察点P’为原点的目标坐标系,其中PP’为目标坐标系的z轴;随后在P’点将物体3D模型投影到xoy平面上获得二维模板图像,记录此时物体的三维位置以及P’点到物体3D模型之间的距离,即生成在不同位姿和观测距离下的物体3D模型二维模板数据集,形成目标模板图像;
S200、图像预处理
对目标物体进行拍照,然后对获取到的二维图像采用直方图均衡法处理,得到目标二维图像;
S300、物体位姿识别
采用目标模板图像对目标二维图像进行检测与识别;
S400、配准
对目标模板图像进行平移和旋转,找到目标模板图像上的每个特征点对应在目标图像上的对应点坐标,通过特征点坐标和对应点切线进行最小平方差运算,使特征点尽量靠近对应点。
优选的,所述步骤S100具体包括:
1)投影距离渐进设计
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈工大机器人(合肥)国际创新研究院,未经哈工大机器人(合肥)国际创新研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010619253.2/2.html,转载请声明来源钻瓜专利网。