[发明专利]语义空间地图构建方法及装置有效
| 申请号: | 201711001164.6 | 申请日: | 2017-10-24 |
| 公开(公告)号: | CN107833250B | 公开(公告)日: | 2020-05-05 |
| 发明(设计)人: | 刘洋;华仁红;陈德;饶杰 | 申请(专利权)人: | 北京易达图灵科技有限公司 |
| 主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T17/05 |
| 代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;李相雨 |
| 地址: | 100013 北京市*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 语义 空间 地图 构建 方法 装置 | ||
1.一种语义空间地图构建方法,其特征在于,包括:
获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
2.根据权利要求1所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
3.根据权利要求2所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
4.根据权利要求3所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,利用对极几何约束法获取每幅图像对应的本质矩阵或基础矩阵。
5.根据权利要求2所述的方法,其特征在于,根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,采用三角测量法获取每个特征点和每个语义特征点对应的三维空间位置。
6.根据权利要求1所述的方法,其特征在于,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用SIFT方法获取每个特征点的位置和每个特征点的特征描述子。
7.根据权利要求1所述的方法,其特征在于,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用Faster-RCNN检测方法获取每个语义特征的位置,采用深度学习的文字识别方法获取每个语义特征的语义信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京易达图灵科技有限公司,未经北京易达图灵科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711001164.6/1.html,转载请声明来源钻瓜专利网。





