[发明专利]一种基于YOLO v2网络的实时抓取检测方法有效
申请号: | 202110656602.2 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113305848B | 公开(公告)日: | 2022-06-07 |
发明(设计)人: | 张龙至;吴冬梅 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 哈尔滨华夏松花江知识产权代理有限公司 23213 | 代理人: | 岳昕 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolo v2 网络 实时 抓取 检测 方法 | ||
一种基于YOLO v2网络的实时抓取检测方法,涉及计算机视觉技术领域,针对现有技术中机器人抓取准确性低的问题,包括步骤一:获取目标物图像,并将目标物图像的大小调整为n*n像素,所述128<n<256;步骤二:提取目标物图像中的全部特征及全部特征对应的5维度抓取参数,然后对全部特征及全部特征对应的5维度抓取参数构建抓取检测数据集;步骤三:利用抓取检测数据集对YOLO v2网络进行训练,并定义损失函数;步骤四:利用训练好的神经网络进行抓取检测。本申请能够有效检测到抓取区域,抓取精度高。
技术领域
本发明涉及计算机视觉技术领域,具体为一种基于YOLO v2网络的实时抓取检测方法。
背景技术
抓取的实际需求是需要机器人能够迅速准确的从传感信息中挖掘出与其抓取操作相关的有用知识,并体现在操作的执行上。因此,建立一个合理的机器人抓取表达方式,并据此设计一个高效的深度网络模型,使机器人能够实现实时抓取,是基于深度学习的抓取研究的重点。
发明内容
本发明的目的是:针对现有技术中机器人不能够实现实时抓取的问题,提出一种基于YOLO v2网络的实时抓取检测方法。
本发明为了解决上述技术问题采取的技术方案是:
一种基于YOLO v2网络的实时抓取检测方法,包括以下步骤:
步骤一:获取目标物图像,并将目标物图像的大小调整为n*n像素,所述128<n<256;
步骤二:提取目标物图像中的全部特征及全部特征对应的5维度抓取参数,然后对全部特征及全部特征对应的5维度抓取参数构建抓取检测数据集;
步骤三:利用抓取检测数据集对YOLO v2网络进行训练,并定义损失函数;
步骤四:利用训练好的神经网络进行抓取检测;
所述对YOLO v2网络进行训练采用端对端的训练方式。
进一步的,所述YOLO v2网络为改进的YOLO v2网络,所述改进的YOLO v2网络的改进步骤为:
S1:修剪掉darknet19中连接在3×3卷积核后的1×1卷积核;
S2:去掉darknet19中1×1卷积核与最大池化层之间的3×3卷积核;
S3:将经过S1和S2处理后得到的6层卷积层与5层最大池化层直接与3个全连接层连接。
进一步的,所述5维度抓取参数表示为:
F={x,y,h,w,θ}
其中,(x,y)表示抓取矩形的中心点坐标;h表示抓取矩形的高;w表示抓取矩形的宽;θ表示抓取矩形相对于图像横轴的旋转角度。
进一步的,所述损失函数通过误差平方和表示,所述误差平方和表示为:
Lt=Lc+La
其中,λc表示坐标值损失的调节因子;λa表示角度值损失的调节因子;Lc表示网络的坐标值损失;La表示网络的角度值损失;Lt表示网络的总损失,和为抓取矩形的中心点坐标标签值,为抓取矩形的高的标签值,为抓取矩形的宽的标签值,x和y为抓取矩形的中心点坐标预测值,h为抓取矩形的高的预测值,w为抓取矩形的宽的预测值。
进一步的,所述抓取矩形相对于图像横轴的旋转角度θ为-90°至90°
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110656602.2/2.html,转载请声明来源钻瓜专利网。