[发明专利]一种基于Kinect的电视节目主持互动系统有效
申请号: | 201210254878.9 | 申请日: | 2012-07-20 |
公开(公告)号: | CN102801924A | 公开(公告)日: | 2012-11-28 |
发明(设计)人: | 李琳;刘晓平;汪伟;王真水;谢文军;黄磊 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | H04N5/278 | 分类号: | H04N5/278;H04N5/222;G06F3/01 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 何梅生 |
地址: | 230009 *** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 kinect 电视节目 主持 互动 系统 | ||
1.一种基于Kinect的电视节目主持互动系统,其特征是所述系统组成包括:
一数字摄像机(1),用于拍摄电视节目并将所拍摄电视节目的视频图像通过视频输出线(5)传输至字幕机(3);
一Kinect设备(2),将所述Kinect设备(2)的RGB摄像头中心与所述数字摄像机(1)的物镜中心处在同一条直线上,所述Kinect设备(2)通过Kinect SDK系统开发工具包中相应API应用程序接口获得电视节目中主持人(7)的RGB图像和人体骨骼信息,并将所述RGB图像和人体骨骼信息通过USB数据线(6)传送至字幕机(3);
所述字幕机(3),用于接收所述视频图像、所述RGB图像和所述人体骨骼信息,并利用图像配准技术中的仿射变换将所述RGB图像与所述视频图像进行图像配准;所述字幕机(3)通过调用Kinect SDK系统开发工具包中相应API应用程序接口获得所述人体骨骼信息中的手部骨骼信息,并利用三维手势识别技术分别获得语义手势和控制手势,从而分别产生语义响应命令和控制响应命令;所述字幕机(3)利用增强现实技术将图文字幕信息叠加到所述视频图像中形成叠加视频;并对所述叠加视频进行手部标识得到参考叠加视频,将所述参考叠加视频发送到同步显示设备(4);
所述同步显示设备(4),用于实时显示所述参考叠加视频,主持人(7)根据所述参考叠加视频实时调整手部位置。
2.根据权利要求1所述的基于Kinect的电视节目主持互动系统,其特征是所述Kinect设备(2)是从正面获取主持人的RGB图像和人体骨骼信息,且人体活动范围限制在所述Kinect设备(2)的水平视角范围小于57°、垂直视角范围小于43°和传感深度范围在1.2米到3.5米之间。
3.根据权利要求1所述的基于Kinect的电视节目主持互动系统,其特征是所述语义手势和所述控制手势的识别过程分别如下过程A和过程B进行:
过程A:所述字幕机(3)根据所述手部骨骼信息设定手部触发的深度阈值,当主持人(7)手部触发所述深度阈值后,所述字幕机(3)开始记录手部运动轨迹,并利用模板匹配方法找到所述手部运动轨迹所匹配的手势模板,若匹配成功,则执行与所述手势模板所对应的语义响应函数,从而获得所述语义手势并产生所述语义响应命令;若匹配失败,则主持人(7)重新触发所述深度阈值并进行所述语义手势的识别过程;
过程B:所述字幕机(3)根据所述手部骨骼信息设定手部触发的深度阈值与时间阈值,主持人(7)手部触发所述深度阈值与时间阈值,若触发成功,则执行手部动作所对应的控制响应函数,从而获得所述控制手势并产生所述控制响应命令;若触发失败,则主持人(7)重新触发所述深度阀值与时间阀值并进行所述控制手势的识别过程。
4.根据权利要求1所述的基于Kinect的电视节目主持互动系统,其特征是所述字幕机(3)可设置为计算机。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210254878.9/1.html,转载请声明来源钻瓜专利网。