[发明专利]基于深度学习的多尺度图像配准方法和装置在审
申请号: | 202010524717.1 | 申请日: | 2020-06-10 |
公开(公告)号: | CN111709980A | 公开(公告)日: | 2020-09-25 |
发明(设计)人: | 边丽蘅;彭林涛;张军 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06N3/04;G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 石茵汀 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 尺度 图像 方法 装置 | ||
1.一种基于深度学习的多尺度图像配准方法,其特征在于,包括以下步骤:
获取第一待配准图像和第二待配准图像,通过预设多层卷积神经网络架构分别对所述第一待配准图像和所述第二待配准图像进行特征提取处理;
获取目标中间层输出的第一特征描述符和第二特征描述符,根据所述第一特征描述符和所述第二特征描述符计算所述第一待配准图像和所述第二待配准图像的特征点距离矩阵;
根据所述特征点距离矩阵对所述第一待配准图像和所述第二待配准图像进行双向特征点匹配得到特征点匹配对;
根据所述特征点匹配对所述第一待配准图像和所述第二待配准图像进行图像配准。
2.如权利要求1所述的方法,其特征在于,所述预设多层卷积神经网络架构,包括但不限于使用Tiny-yolo多层卷积神经网络、AlexNet多层卷积神经网络、VGGNet多层卷积神经网络和GoogleNet多层卷积神经网络中的一种或者多种。
3.如权利要求1所述的方法,其特征在于,所述根据所述第一特征描述符和所述第二特征描述符计算所述第一待配准图像和所述第二待配准图像的特征点距离矩阵,包括但不限于使用曼哈顿距离、或欧式距离的距离度量方式;
针对所述第一特征描述符和所述第二特征描述符进行上述距离计算,得到所述第一待配准图像和所述第二待配准图像的特征点距离矩阵。
4.如权利要求3所述的方法,其特征在于,还包括:
对所述第一待配准图像和所述第二待配准图分别进行角点检测获得角点信息;
将所述角点信息更改到预设尺寸,然后展平为目标数组获得角点坐标先验信息;
将所述角点坐标先验信息运用到所述特征点距离矩阵计算中。
5.如权利要求1所述的方法,其特征在于,所述根据所述特征点距离矩阵对所述第一待配准图像和所述第二待配准图像进行双向特征点匹配得到特征点匹配对,包括:
根据特征点距离矩阵获取所述第一待配准图像和所述第二待配准图像的之间双向特征点小于等于匹配阈值的作为特征点匹配对。
6.如权利要求1所述的方法,其特征在于,根据所述特征点匹配对所述第一待配准图像和所述第二待配准图像进行图像配准,包括:
根据所述特征点匹配对计算所述第一待配准图像和所述第二待配准图像的单应性变换矩阵;
根据所述单应性变换矩阵对所述第一待配准图像和所述第二待配准图像进行图像配准。
7.一种基于深度学习的多尺度图像配准装置,其特征在于,包括:
第一获取模块,用于获取第一待配准图像和第二待配准图像;
处理模块,用于通过预设多层卷积神经网络架构分别对所述第一待配准图像和所述第二待配准图像进行特征提取处理;
第二获取模块,用于获取目标中间层输出的第一特征描述符和第二特征描述符;
计算模块,用于根据所述第一特征描述符和所述第二特征描述符计算所述第一待配准图像和所述第二待配准图像的特征点距离矩阵;
匹配模块,用于根据所述特征点距离矩阵对所述第一待配准图像和所述第二待配准图像进行双向特征点匹配得到特征点匹配对;
配准模块,用于根据所述特征点匹配对所述第一待配准图像和所述第二待配准图像进行图像配准。
8.如权利要求7所述的装置,其特征在于:
所述预设多层卷积神经网络架构,包括但不限于使用Tiny-yolo多层卷积神经网络、AlexNet多层卷积神经网络、VGGNet多层卷积神经网络和GoogleNet多层卷积神经网络中的一种或者多种。
9.如权利要求7所述的装置,其特征在于,所述匹配模块,具体用于:
根据特征点距离矩阵获取所述第一待配准图像和所述第二待配准图像的之间双向特征点小于等于匹配阈值的作为特征点匹配对。
10.如权利要求7所述的装置,其特征在于,所述配准模块,具体用于:
根据所述特征点匹配对计算所述第一待配准图像和所述第二待配准图像的单应性变换矩阵;
根据所述单应性变换矩阵对所述第一待配准图像和所述第二待配准图像进行图像配准。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010524717.1/1.html,转载请声明来源钻瓜专利网。