[发明专利]基于GPU并行加速的基础矩阵和单应矩阵估计方法和系统有效
申请号: | 201710478041.5 | 申请日: | 2017-06-21 |
公开(公告)号: | CN107301618B | 公开(公告)日: | 2019-11-22 |
发明(设计)人: | 陶文兵;李杰;孙琨;徐青山 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T1/20 | 分类号: | G06T1/20;G06T15/00 |
代理公司: | 42201 华中科技大学专利中心 | 代理人: | 李智;曹葆青<国际申请>=<国际公布>= |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 gpu 并行 加速 基础 矩阵 估计 方法 系统 | ||
本发明公开了一种基于GPU并行加速的基础矩阵和单应矩阵估计方法和系统,其中方法的实现包括:对多个图像,基于特征点利用匹配算法得到每个图像对的匹配列表,匹配列表包含图像对特征点的匹配信息;由于显存容量限制,每次只选取M个图像对进行并行计算,对此M个图像对中的特征点匹配对进行并行随机采样;根据采样结果并行地计算得到对应的候选基础矩阵或候选单应矩阵和相应的内点数;然后在属于同一个图像对的多个候选基础矩阵或候选单应矩阵中获取内点数最大的候选矩阵进行优化得到最终的基础矩阵或单应矩阵。本发明可以大幅度减少基础矩阵和单应矩阵计算时间。
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种基于GPU并行加速的基础矩阵和单应矩阵估计方法和系统。
背景技术
三维重建是在计算机中建立表达客观世界的虚拟现实的关键技术。近几年来,三维重建已经越来越成为一门比较热门的课题。而在其中对于无序图像的重建也渐渐成为很多人关注的重点,对无序图像的重建最经典的方法要属增量式Structure from Motion(SfM)。该方法的过程主要包括:提取图像特征点;建立图像对之间特征点匹配关系;计算图像之间的双视图几何关系;根据匹配估计稀疏三维点云和相机参数。双视图几何关系中主要是计算图像之间的基础矩阵和单应矩阵,基础矩阵可以用于剔除图像之间的错误匹配,提高重建精度;单应矩阵的内点率可以反映图像之间是否存在平面场景以及推测图像之间基线的大小,可用于选择合适的重建起点,因此两者对于重建都有比较重要的作用。
但是在SfM中,基础矩阵和单应矩阵的计算主要还是在CPU上完成。其往往需要与随机采样一致性算法(RANSAC)结合,才能得到比较鲁棒的结果,但是利用RANSAC算法需要多次采样并重复计算,因而是比较耗时的,特别是在大规模图像的三维重建中,基础矩阵和单应矩阵计算时间的问题将会更加突出。
由此可见,现有的基础矩阵和单应矩阵估计方法中存在计算时间长,效率低的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于GPU并行加速的基础矩阵和单应矩阵估计方法和系统,由此解决现有的基础矩阵和单应矩阵估计方法中存在计算时间长,效率低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于GPU并行加速的基础矩阵和单应矩阵估计方法,包括:
(1)对多个图像,提取每个图像的特征点,基于特征点利用匹配算法得到每个图像对的匹配列表,匹配列表包含图像对之间特征点的匹配信息,定义图像对的匹配列表中相互匹配的1对特征点为匹配对,根据每个图像对匹配列表中匹配对数量构建索引,得到索引编号,以便于查找;
(2)从具有匹配关系的所有图像对中选取M个图像对进行并行计算,在选取的每个图像对的匹配列表中采集C*N个匹配对,此时C表示计算一个基础矩阵或单应矩阵需要的匹配对数量,N为矩阵原始算法中RANSAC的最大迭代次数,对于M个图像对,利用GPU并行产生M*N组随机采样序列,每组随机采样序列包含C个随机数,每个随机数为相应图像对中匹配对的索引编号;
(3)对于每组随机采样序列,基于索引编号对应的匹配对得到候选基础矩阵或候选单应矩阵和相应的内点数量,利用GPU并行得到M*N个候选基础矩阵或M*N个候选单应矩阵和相应的M*N个内点数;
(4)在属于同一个图像对的N个候选基础矩阵或N个候选单应矩阵中获取内点数最大的矩阵为初始基础矩阵或初始单应矩阵,则M*N个候选基础矩阵中得到M个初始基础矩阵,M*N个候选单应矩阵中得到M个初始单应矩阵,对M个初始基础矩阵或M个初始单应矩阵进行优化得到最终的基础矩阵或最终的单应矩阵。
进一步的,步骤(3)的具体实现方式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710478041.5/2.html,转载请声明来源钻瓜专利网。