[发明专利]视频数据处理方法、装置以及电子设备在审
申请号: | 202210583066.2 | 申请日: | 2022-05-26 |
公开(公告)号: | CN115019390A | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 杨咏臻;程一晟;蒋智文;熊子良;曹启云 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V20/40;G06V10/764 |
代理公司: | 北京猷德知识产权代理有限公司 16084 | 代理人: | 范继晨 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 数据处理 方法 装置 以及 电子设备 | ||
本公开提供了一种视频数据处理方法、装置以及电子设备,涉及人工智能领域,尤其涉及视频分析领域。具体实现方案为:获取视频数据;从视频数据中获取时序帧图,其中,时序帧图包括预定时间段内的多帧图像;依据时序帧图中的多帧图像,检测视频数据中的目标主体是否存在预定行为动作,得到目标检测结果。
技术领域
本公开涉及人工智能技术领域,尤其涉及视频分析、直播技术领域, 具体涉及一种视频数据处理方法、装置以及电子设备。
背景技术
在相关技术中,通常采用基于多种基础审核类型针对静态帧图进行综 合分析的方式来识别并审核视频中是否存在违规动作,但这种方式普遍存 在动作识别准确率低以及识别标准调整工作量大的缺点。
发明内容
本公开提供了一种用于视频数据处理的方法、装置以及电子设备。
根据本公开的一方面,提供了一种视频数据处理方法,包括:获 取视频数据;从视频数据中获取时序帧图,其中,时序帧图包括预定 时间段内的多帧图像;依据时序帧图中的多帧图像,检测视频数据中 的目标主体是否存在预定行为动作,得到目标检测结果。
可选地,依据时序帧图中的多帧图像,检测视频数据中的目标主 体是否存在预定行为动作,得到目标检测结果包括:提取多帧图像中 的首帧图像;检测首帧图像中是否包括目标主体;在检测结果为首帧 图像中包括目标主体的情况下,检测视频数据中的目标主体是否存在 预定行为动作,得到目标检测结果。
可选地,依据时序帧图中的多帧图像,检测视频数据中的目标主 体是否存在预定行为动作,得到目标检测结果,包括:对时序帧图中 的多帧图像进行裁减,得到包括目标主体的多帧裁减图像,其中,目 标主体在多帧裁减图像中占据的区域大小超过预定阈值;基于多帧裁 减图像,检测视频数据中的目标主体是否存在预定行为动作,得到目 标检测结果。
可选地,依据时序帧图中的多帧图像,检测视频数据中的目标主 体是否存在预定行为动作,得到目标检测结果包括:基于时序帧图中 的多帧图像,检测视频数据中的目标主体的动作类型是否属于预定动 作类型,其中,预定动作类型的动作包括预定行为动作;在检测结果 为视频数据中的目标主体的动作类型属于预定动作类型的情况下,检 测视频数据中的目标主体是否存在预定行为动作,得到目标检测结果。
可选地,依据时序帧图中的多帧图像,检测视频数据中的目标主 体是否存在预定行为动作,得到目标检测结果,包括:将时序帧图中 的多帧图像输入动作检测模型,得到视频数据中的目标主体的动作为 预定行为动作的置信度,以及目标主体的动作所属的目标类型,其中, 动作检测模型采用多组样本数据训练得到,多组样本数据包括:多帧 样本图像,以及多帧样本图像中的样本主体是否存在预定动作的样本 检测结果;基于置信度和目标类型,确定目标检测结果。
可选地,上述方法还包括:在目标检测结果为视频数据中的目标 主体存在预定行为动作的情况下,获取目标视频片段,其中,目标视 频片段为从视频数据中截取的视频;基于目标检测结果和目标视频片 段,确定最终检测结果,其中,最终检测结果用于标识视频数据是否 包括预定视频类型。
根据本公开的另一方面,提供了一种视频数据处理装置,包括: 第一获取模块,用于获取视频数据;第二获取模块,用于从视频数据 中获取时序帧图,其中,时序帧图包括预定时间段内的多帧图像;检 测模块,用于依据时序帧图中的多帧图像,检测视频数据中的目标主 体是否存在预定行为动作,得到目标检测结果。
可选地,检测模块包括:提取单元,用于提取多帧图像中的首帧 图像;第一检测单元,用于检测首帧图像中是否包括目标主体;第二 检测单元,用于在检测结果为首帧图像中包括目标主体的情况下,检 测视频数据中的目标主体是否存在预定行为动作,得到目标检测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210583066.2/2.html,转载请声明来源钻瓜专利网。