[发明专利]基于卷积神经网络的目标距离与正对位置偏移测量方法有效
| 申请号: | 201810567845.7 | 申请日: | 2018-06-05 |
| 公开(公告)号: | CN108959713B | 公开(公告)日: | 2023-06-27 |
| 发明(设计)人: | 杨嘉琛;满家宝 | 申请(专利权)人: | 天津大学 |
| 主分类号: | G06F30/27 | 分类号: | G06F30/27;G06T15/04;G06T15/10;G06N3/0464;G06N3/08 |
| 代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 程毓英 |
| 地址: | 300072*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 目标 距离 位置 偏移 测量方法 | ||
本发明涉及一种基于卷积神经网络的目标距离与正对位置偏移测量方法,包括下列步骤:根据实际工程需要,按1:1比例,利用3Dmax软件对实际工程需要环境、被测物样式进行仿真图片制作,得到仿真数据集;结合实际情况,制作贴放于被测物表面的模拟特征靶标物,模拟特征靶标物应当具有丰富且有所区别的颜色特征,具有较为复杂的轮廓特征以便卷积神经网络学习微小目标距离与正对位置偏移之间的差别;将已赋好的目标距离与正对位置偏移值作为训练样本标签,得到训练集;基于TensorFlow神经网络框架构建卷积神经网络识别网络,利用经过格式转换的训练集训练此识别网络。
技术领域
本发明属于计算机视觉领域,涉及卷积神经网络在实际物体距离测量、正对位置偏移量中的应用。
背景技术
机器视觉是基于对人类视觉研究的基础上衍生出的学科,它是人工智能领域一个新的研究热点。近年来,大量的研究人员从事着视觉领域各方面技术的研究,希望突破多方面的限制,使机器视觉技术能够更加成熟。机器视觉技术作为重要的检测测量技术已经应用于很多重要的工业、军事领域中,例如生物医学,环境科学,纺织,航天等。
机器视觉系统根据获取图像的传感器个数的不同可以分为单目视觉测量系统,双目视觉测量系统和多目视觉测量系统等。其中,单目视觉测量法设备要求简单,在实际工业需求中较易实现,常被广泛用于图像单目视觉就是利用一个视觉传感器来捕捉图像信息,系统结构简单,成本低,对场地环境要求较低,而且视场范围较双目视觉或多目视觉要大得多,不需要进行立体匹配,具有广泛适用性。利用单目视觉来对运动目标进行目标距离与正对位置偏移的方法有很多,如几何相似法、几何光学法、特征靶标测量法、激光测距仪辅助测量法均可以对目标物体的目标距离与正对位置偏移进行测量。
发明内容
本发明的目的在于摆脱现有的目标目标距离与正对位置偏移测量方式,将深度学习策略引入目标距离与正对位置偏移测量过程,通过3Dmax软件模拟实际测量环境,制作实际工程所需仿真训练图片,将已赋好的目标距离与正对位置偏移值作为训练样本标签,最终构成训练集。通过制作大量训练集投入卷积神经网络进行图像特征提取,优化网络参数,最终实现更高精度测量。技术方案如下:
一种基于卷积神经网络的目标距离与正对位置偏移测量方法,包括下列步骤:
第一步:构建训练集;根据实际工程需要,按1:1比例,利用3Dmax软件对实际工程需要环境、被测物样式进行仿真图片制作,得到仿真数据集;
第二步:结合实际情况,制作贴放于被测物表面的模拟特征靶标物,模拟特征靶标物应当具有丰富且有所区别的颜色特征,具有较为复杂的轮廓特征以便卷积神经网络学习微小目标距离与正对位置偏移之间的差别;
第三步:利用3Dmax软件的脚本系统批量制作训练集:目标距离在0.5米至1米之间,以0.01米为步幅进行样本取材,共获取51档样本;目标正对位置偏移将在X轴、Y轴两维度坐标轴±0.2米之内,以0.01米为步幅进行样本取材,在正对位置偏移量上将获取41*41档样本,共所需训练的样本数据集总量为51*41*41个图片样本,即85731个有标注训练样本,将已赋好的目标距离与正对位置偏移值作为训练样本标签,得到训练集;
第四步:将收集好的训练集进行格式转换,使之符合神经网络输入层的数据格式;
第五步:基于TensorFlow神经网络框架构建卷积神经网络识别网络,利用经过格式转换的训练集训练此识别网络,学习目标距离与正对位置之间的偏移量;
第六步:基于TensorFlow神经网络框架,在实际环境中调整实际模型目标距离与正对位置偏移进行拍照截取,投入训练好的卷积神经网络,得到测试结果。
附图说明
图1特征靶标物(原图为包含各种颜色的彩图)
具体实施方式
下面结合实施例对本发明进行说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810567845.7/2.html,转载请声明来源钻瓜专利网。





