[发明专利]一种基于语义目标的双目视觉定位方法有效

专利信息
申请号: 202110400564.4 申请日: 2021-04-14
公开(公告)号: CN112884841B 公开(公告)日: 2022-11-25
发明(设计)人: 马琳;董赫;张忠旺;刘晟;周剑琦;叶亮;何晨光 申请(专利权)人: 哈尔滨工业大学;中国航空无线电电子研究所
主分类号: G06T7/73 分类号: G06T7/73;G06T7/80;G06V10/774
代理公司: 哈尔滨华夏松花江知识产权代理有限公司 23213 代理人: 岳昕
地址: 150001 黑龙*** 国省代码: 黑龙江;23
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 语义 目标 双目 视觉 定位 方法
【权利要求书】:

1.一种基于语义目标的双目视觉定位方法,其特征在于:所述方法具体过程为:

步骤一、用户利用双目相机对当前看到的场景进行拍摄,得到左右两幅图像;

步骤二、将双目相机拍摄到的左右两幅图像输入到训练好的R-FCN语义分割网络,R-FCN语义分割网络识别出当前左右两幅图像中含有的语义目标,以及每个语义目标对应的角点坐标;

步骤三、用户在语义目标中选择一个左右图像共同含有的语义目标,基于该语义目标对应的角点坐标建立目标的三维坐标系;

步骤四、确定步骤三选择的语义目标的角点在左右图像中对应的像素坐标;

步骤五、对拍摄图像所用的双目相机进行标定,获得双目相机内部参数以及外部参数;

步骤六、基于步骤四的语义目标的角点在左右图像中对应的像素坐标差异和步骤五标定后的双目相机,利用双目视觉定位算法求解当前用户在步骤三建立的三维坐标系下相对于该目标的位置坐标及转向角,实现对用户的定位。

2.根据权利要求1所述一种基于语义目标的双目视觉定位方法,其特征在于:所述步骤二中训练好的R-FCN语义分割网络的具体训练过程为:

双目相机对当前看到的场景进行拍摄,得到左右两幅图像作为训练集,对训练集中的每一张照片都进行语义目标的标注,将标注后的训练集图像输入R-FCN语义分割网络;

R-FCN网络的损失函数采用了多目标的损失函数;

在训练过程中,如果损失函数小于规定的阈值或者迭代次数达到上限时,即停止训练,得到训练好的R-FCN语义分割网络。

3.根据权利要求2所述一种基于语义目标的双目视觉定位方法,其特征在于:所述步骤六中基于步骤四的语义目标的角点在左右图像中对应的像素坐标差异和步骤五标定后的双目相机,利用双目视觉定位算法求解当前用户在步骤三建立的三维坐标系下相对于该目标的位置坐标及转向角,实现对用户的定位;具体过程为:

步骤六一、世界坐标系Ow-XYZ到像素坐标系O2-uv的转换;

步骤六二、对双目相机进行标定;

步骤六三、基于步骤六一和步骤六二,确定选取目标的左上角点在左相机坐标系下的坐标;

步骤六四、基于步骤六三确定的选取目标的左上角点在左相机坐标系下的坐标,将左相机坐标系中的任意一点转换到世界坐标系中;

步骤六五、基于步骤六四求解得到当前选定目标相对于用户的转向角。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学;中国航空无线电电子研究所,未经哈尔滨工业大学;中国航空无线电电子研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110400564.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top