[发明专利]视频关键点实时处理方法、装置及计算设备有效
| 申请号: | 201711249011.3 | 申请日: | 2017-12-01 |
| 公开(公告)号: | CN107920257B | 公开(公告)日: | 2020-07-24 |
| 发明(设计)人: | 刘洛麒;张望;肖胜涛;熊超 | 申请(专利权)人: | 北京奇虎科技有限公司 |
| 主分类号: | H04N21/2187 | 分类号: | H04N21/2187;H04N21/234;H04N21/44 |
| 代理公司: | 深圳市世纪恒程知识产权代理事务所 44287 | 代理人: | 胡海国 |
| 地址: | 100088 北京市西城区新*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 视频 关键 实时处理 方法 装置 计算 设备 | ||
1.一种视频关键点实时处理方法,其包括:
实时获取图像采集设备所拍摄和/或所录制的视频中第t帧图像,其中t大于1;
将所述第t帧图像输入至神经网络中得到第t帧图像的关键点的坐标信息;
判断关键点的移动速度是否大于预设阈值,若是,则根据第t-1帧图像的关键点相对于第t-2帧图像的关键点的移动速度以及第t-1帧图像的关键点的坐标信息,预测得到第t帧图像的关键点的坐标信息;计算利用神经网络得到的第t帧图像的关键点的坐标信息与预测得到的第t帧图像的关键点的坐标信息之间的距离;根据所述距离,对利用神经网络得到的第t帧图像的关键点的坐标信息与预测得到的第t帧图像的关键点的坐标信息进行融合计算处理,得到修正处理后的第t帧图像的关键点的坐标信息;
若否,则获取第t-n+1帧图像至第t-1帧图像的关键点的坐标信息,n为预设值;针对第t-n+1帧图像至第t帧图像中的任一帧图像,根据该帧图像与第t帧图像之间的帧距以及该帧图像的关键点与第t帧图像的关键点之间的距离确定该帧图像的权重;根据第t-n+1帧图像至第t帧图像的权重,将第t-n+1帧图像至第t帧图像的关键点的坐标信息进行加权平均,得到修正处理后的第t帧图像的关键点的坐标信息;
利用修正处理后的第t帧图像的关键点的坐标信息,对第t帧图像进行处理;
显示处理后的第t帧图像。
2.根据权利要求1所述的方法,其中,针对第t-n+1帧图像至第t帧图像中的任一帧图像,该帧图像的权重与该帧图像与第t帧图像之间的帧距以及该帧图像的关键点与第t帧图像的关键点之间的距离成反比关系。
3.根据权利要求1或2所述的方法,其中,所述根据距离,对利用神经网络得到的第t帧图像的关键点的坐标信息与预测得到的第t帧图像的关键点的坐标信息进行融合计算处理,得到修正处理后的第t帧图像的关键点的坐标信息进一步包括:
依据所述距离确定融合计算处理时利用神经网络得到的第t帧图像的关键点的坐标信息对应的第一权重,以及确定预测得到的第t帧图像的关键点的坐标信息对应的第二权重,其中,所述第一权重与第二权重之和等于1,所述第一权重与所述距离成正比关系,所述第二权重与所述距离成反比关系;
根据所述第一权重、第二权重对利用神经网络得到的第t帧图像的关键点的坐标信息与预测得到的第t帧图像的关键点的坐标信息进行融合计算处理,得到修正处理后的第t帧图像的关键点的坐标信息。
4.根据权利要求1或2所述的方法,其中,所述第t-n+1帧图像至第t-1帧图像的关键点的坐标信息为经过修正处理后的坐标信息。
5.根据权利要求1或2所述的方法,其中,所述利用修正处理后的第t帧图像的关键点的坐标信息,对第t帧图像进行处理进一步包括:
根据修正处理后的第t帧图像的关键点的坐标信息在第t帧图像的部分区域中添加静态或动态效果贴图。
6.根据权利要求1或2所述的方法,其中,所述关键点为特定对象的轮廓线中的点,其中,特定对象包括:人物、动植物、车辆、建筑物、家居物品、艺术品。
7.根据权利要求1或2所述的方法,其中,所述方法还包括:将处理后的视频数据上传至云服务器。
8.根据权利要求7所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
9.根据权利要求7所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
10.根据权利要求7所述的方法,其中,所述将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京奇虎科技有限公司,未经北京奇虎科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711249011.3/1.html,转载请声明来源钻瓜专利网。





