[发明专利]一种基于强化学习优化的多人姿态检测方法在审
申请号: | 201910080912.7 | 申请日: | 2019-01-28 |
公开(公告)号: | CN109858430A | 公开(公告)日: | 2019-06-07 |
发明(设计)人: | 黄铎;应娜;郭春生;朱宸都;蔡哲栋;刘兆森 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州千克知识产权代理有限公司 33246 | 代理人: | 周希良 |
地址: | 310018 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 包围框 强化学习 姿态检测 姿态检测器 精细模型 贴合 目标检测器 冗余信息 检测 算法 优化 图像 | ||
本发明提供一种基于强化学习优化的多人姿态检测方法。针对传统方法中目标检测器所定位的有些包围框不能很好地贴合人体,导致姿态检测器的检测精度下降,进而影响到整个多人姿态检测算法的精度,提出了基于强化学习的目标精细模型,针对不够精确的包围框进行调整。目标精细模型使得包围框能更加贴合人体,减少了包围框中图像的冗余信息,可以提高姿态检测器的检测精度。
技术领域
本发明属于图像处理的技术领域,具体涉及一种基于强化学习优化的多人姿态检测方法。
背景技术
强化学习是受到博弈论以及行为心理学启发的机器学习分支,是一种面向目标的算法,该算法在训练中将学习针对一个问题如何采取一些动作以使得目标最优化,如学习在游戏中的如何操作以获得最高的分数。强化学习可以从一个随机选择的状态开始,在不断的训练中可以达到超过人类水平的能力。强化学习的训练中做出错误的预测时会受到惩罚,反之则会受到奖励,强化学习便是在不断地受到奖励与惩罚后学习如何选择动作以使得奖励最大化的过程。
目前针对图像中人像姿态的判断,尤其是针对多人姿态的检测主要采用两步检测算法:以目标检测器定位目标,以姿态检测器对所有目标检测姿态。利用目标检测器检测图像中的人像,然后利用姿态检测器来检测判断人像的姿态,但是才用这种方式对人像进行判断,由于目标检测器所定位的有些包围框有时候不能很好地贴合人体,也就是其仅仅定位人体,人体有部分在包围框内,有一部分则在包围框外部,这样就使得人体姿势判断时的姿态检测器的检测精度下降,而且图像中存在多个人时更加不准确,影响了整个多人姿态检测算法的精度。
故而需要对现有的多人姿态检测做出改进,以便提高算法精度,准确判断图像中的多个人的人体姿态。
发明内容
本发明的目的是为了解决上述问题,提供一种基于强化学习优化的多人姿态检测方法。针对传统方法中目标检测器所定位的有些包围框不能很好地贴合人体,导致姿态检测器的检测精度下降,进而影响到整个多人姿态检测算法的精度,提出了基于强化学习的目标精细模型,针对不够精确的包围框进行调整。目标精细模型使得包围框能更加贴合人体,减少了包围框中图像的冗余信息,可以提高姿态检测器的检测精度。
为了达到上述发明目的,本发明采用以下技术方案:
一种基于强化学习优化的多人姿态检测方法,其特征在于,包括以下步骤:
S1.采集多张多人图片并进行处理,生成多人数据集及单人数据集,将所述单人与多人数据集按预设比例分别拆分为训练集与测试集,得到多人训练集、多人测试集、单人训练集、单人测试集;
S2.建立用于定位目标的目标检测器、用于调整包围框的目标精细模型、用于检测人体姿态的姿态检测器,三者形成多人姿态检测算法结构;
S3.利用单人训练集训练目标精细模型中的特征提取部分,作为目标精细模型的预训练参数,并使用单人测试集进行测试以防止模型过拟合;
S4.利用多人训练集训练目标检测器,利用单人训练集训练姿态检测器,并使用各自的测试集(即多人训练集、单人训练集)分别进行各自测试以防止模型过拟合;使用目标检测器和姿态检测器的训练精度生成正方形单人图片数据集训练目标精细模型,在训练中使用S3中所述预训练参数对目标精细模型进行初始化;
S5.输入需要检测的多人图片,利用目标检测器定位所述需要检测的多人图片中的多个人体目标,利用目标精细模型对多个人体目标的包围框进行调整,及利用姿态检测器分别检测多个人体目标的姿态。
本发明增加了目标精细模型,用于调整目标检测器定位的包围框,使得包围框更贴合多人图片中的人体,减少了包围框中图像的冗余信息,可以提高姿态检测器的检测精度。
进一步的,所述步骤S1中的多人数据集包括多人图片与人体包围框标签。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910080912.7/2.html,转载请声明来源钻瓜专利网。