[发明专利]基于生成式对抗网络模型的数据增强行人再识别方法有效
申请号: | 201910483958.3 | 申请日: | 2019-06-05 |
公开(公告)号: | CN110188835B | 公开(公告)日: | 2021-03-16 |
发明(设计)人: | 刘剑蕾;郭晓强;周芸;李小雨;付光涛;姜竹青;门爱东 | 申请(专利权)人: | 国家广播电视总局广播电视科学研究院;北京邮电大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G06K9/34 |
代理公司: | 天津盛理知识产权代理有限公司 12209 | 代理人: | 王利文 |
地址: | 100886 北京市西*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 生成 对抗 网络 模型 数据 增强 行人 识别 方法 | ||
本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask‑RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。
技术领域
本发明属于计算机视觉技术领域,尤其是一种基于生成式对抗网络模型的数据增强行人再识别方法。
背景技术
近年来,安防摄像机网络已经遍布城市的各个区域,随之而来的是海量视频数据的存储。然而,由于人工分析大量的视频内容费时费力,因此行人再识别技术作为智能视频监控中的重要组成部分,得到了全世界研究人员的关注。
行人再识别技术是指是利用计算机视觉技术在非重叠的多摄像头系统中匹配不同场景的特定行人技术。由于摄像机所处环境的变化和行人的非刚性运动,例如亮度变化、姿势变化、遮挡以及背景聚类等问题的存在,使得行人再识别技术仍然面临着诸多困难和挑战。
随着深度学习在各个计算机视觉任务的广泛应用,基于深度学习的行人再识别技术在各大公开数据集取得了优异的性能。然而,现有的深度学习模型仍然存在缺陷:实际场景当中,行人的图像数量是及其庞大的,其场景变化是多种多样的,但是,现有的公开数据集其数据集尺寸相对较小,且仅仅在几个特定的摄像头下采集行人图像。此外,现有的数据集由于其采集所用摄像头数量相对较少,因而其内部的环境变化比较固定,很难符合真实场景。所以,现有的基于深度学习的行人再识别模型在利用公开数据集进行训练过程中很容易产生过拟合。因此,如何提高基于深度学习的行人再识别模型的泛化能力、缓解其过拟合是迫切需要解决的问题。
发明内容
本发明的目的在于克服现有技术的不足,提出一种设计合理且识别准确率高的基于生成式对抗网络模型的数据增强行人再识别方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于生成式对抗网络模型的数据增强行人再识别方法,包括以下步骤:
步骤1、使用Mask-RCNN图像分割算法分割出图像中行人的掩膜图像;
步骤2、结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像,使得生成图像的前景不变,背景与对应摄像头一致;
步骤3、使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;
步骤4、将真实图像和步骤3生成的假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。
所述步骤1的具体实现方法为:首先构造一张与行人图像尺度大小一致的像素值全为0的全黑图像;然后使用Mask-RCNN检测图像中属于行人的像素;最后,将对应位置的像素点大小设置为255,生成行人图像掩膜图像。
所述步骤2中端到端的改进星形生成式对抗网络包括一对多的改进星形图像生成器和一对多的改进图像判别器。
所述一对多的改进星形图像生成器具体实现方法包括以下步骤:
⑴构建一对多星形图像生成器,并与改进星形图像判别器联合训练,输入真实图像与目标相机域标签,将真实图像中的行人转换至目标相机域中,建立如下星形图像生成器目标函数:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国家广播电视总局广播电视科学研究院;北京邮电大学,未经国家广播电视总局广播电视科学研究院;北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910483958.3/2.html,转载请声明来源钻瓜专利网。