[发明专利]一种实时的人像跟踪分割方法在审
| 申请号: | 202010200344.2 | 申请日: | 2020-03-20 |
| 公开(公告)号: | CN111414860A | 公开(公告)日: | 2020-07-14 |
| 发明(设计)人: | 张明琦;李云夕;熊永春 | 申请(专利权)人: | 杭州趣维科技有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 杭州橙知果专利代理事务所(特殊普通合伙) 33261 | 代理人: | 贺龙萍 |
| 地址: | 310012 浙江省杭州市西湖*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 实时 人像 跟踪 分割 方法 | ||
1.一种实时的人像跟踪分割方法,其特征是,具体包括如下步骤:
(1)训练阶段用来训练人像分割模型的参数,对分割网络进行离线训练,其包括数据预处理以及模型训练两部分;
(2)预测阶段将视频的图片序列帧输入到人像跟踪分割算法中,经过KCF跟踪算法得到人像跟踪框,根据人像跟踪框裁剪出人像区域,对人像区域进行预处理并输入到分割模型中,对输出结果进行后处理,得到与输入帧对应的人像分割掩膜,按视频帧顺序循环这个过程,直到得到最终的视频人像掩膜序列后结束。
2.根据权利要求1所述的一种实时的人像跟踪分割方法,其特征是,在步骤(1)中,具体操作方法为:
(11)搜集不同的人像数据,并对人像区域进行精确标注,背景区域为0,人像区域为1,从而得到对应的二值化人像掩膜;
(12)对训练的人像数据进行数据增强处理,然后将图像的长边缩放至224,短边等比缩放,不足之处补0对齐,得到尺寸为224*224*3的RGB输入图像Ix,对相应的二值化人像掩膜进行同样的缩放操作得到训练人像掩膜Iy;
(13)采用Mobilenetv2作为分割网络的编码模块,整个编码模块对输入图像进行32倍下采样,得到特征图F;解码模块中,采用类似U-net的解码方式对特征图F进行细节的恢复,在将特征图尺寸恢复到56*56后,直接利用4倍的上采样层,得到尺寸为224*224*1的输出人像掩膜Y;
(14)对输出人像掩膜Y和训练人像掩膜Iy进行交叉熵损失函数运算和Dice损失函数运算,得到损失函数Loss;
(15)利用损失函数Loss对整个模型进行迭代,更新模型参数。
3.根据权利要求2所述的一种实时的人像跟踪分割方法,其特征是,在步骤(12)中,数据增强处理包括镜像、旋转、亮度对比度变换、仿射变换。
4.根据权利要求1所述的一种实时的人像跟踪分割方法,其特征是,在步骤(2)中,具体操作方法为:
(21)对视频进行拆帧处理,得到图片序列帧;
(22)将第一帧图片输入到KCF跟踪算法中,同时手工标记需要跟踪的人像框来初始化KCF跟踪算法,并将此作为第一帧的人像跟踪框B1;
(23)假设当前帧的人像跟踪框为Bt,其中t表示图片帧在视频中的位置,KCF跟踪算法根据当前帧的人像跟踪框Bt,来预测下一帧的人像跟踪框Bt+1;
(24)根据步骤(23)中得到的人像跟踪框Bt,对人像区域进行自适应裁剪,得到人像区域Pt;
(25)对人像区域Pt进行预处理,将人像区域Pt的长边缩放至224,短边等比缩放,不足之处补0对齐,得到尺寸为224*224*3的RGB模型输入It;
(26)RGB模型输入It在经过步骤(1)获得的人像分割模型后得到人像掩膜输出Yt;
(27)对人像掩膜输出Yt进行后处理来优化结果,得到与原始图像帧对应的二值人像掩膜Nt;
(28)循环步骤(23)到步骤(27),直到最后一帧的图像分割完成,得到所有的人像掩膜帧。
5.根据权利要求4所述的一种实时的人像跟踪分割方法,其特征是,在步骤(24)中,自适应裁剪具体为:首先判断人像跟踪框的宽高比或者高宽比,如果宽高比或者高宽比小于0.5,则扩大短边的范围,使其比例到达0.5;之后对人像跟踪框的宽高进行同等比例的外扩,得到人像区域Pt,保证整个裁剪区域中包含完整的人像。
6.根据权利要求4所述的一种实时的人像跟踪分割方法,其特征是,在步骤(27)中,对人像掩膜输出Yt进行后处理具体为:首先对其进行二值化处理,阈值为0.5,得到二值化的人像掩膜;其次,对该人像掩膜进行联通域分析,除去误分割的区域,保留人像的最大区域;然后将该结果缩放到步骤(24)中的人像区域Pt的尺寸大小;最后根据人像区域Pt的裁剪信息,将人像掩膜周边补0,得到与原始图像帧对应的二值人像掩膜Nt。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州趣维科技有限公司,未经杭州趣维科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010200344.2/1.html,转载请声明来源钻瓜专利网。





