[发明专利]一种基于Kinect传感器的投影方法有效
| 申请号: | 201310752671.9 | 申请日: | 2013-12-31 |
| 公开(公告)号: | CN103747196B | 公开(公告)日: | 2017-08-01 |
| 发明(设计)人: | 杨毅;吕宪伟;李一锦;李星河;朱昊;程思源 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | H04N5/74 | 分类号: | H04N5/74;H04N9/31;G03B35/18 |
| 代理公司: | 北京理工大学专利中心11120 | 代理人: | 付雷杰,杨志兵 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 kinect 传感器 投影 方法 | ||
技术领域
本发明涉及自动化投影技术领域,具体涉及一种基于Kinect传感器的投影方法。
背景技术
传统的舞台追光灯绝大多数是由操作员手动操作,不仅费时费力,对操作员的操作水平要求较高,而且容易产生操作错误。而现今新出现的舞台自动追光灯,都是舞台演员身上携带无线发射器等设备,计算机通过判断设备的位置从而判断人的位置,然后追光灯将光投向该位置;因而若演员不小心将设备遗落,追光灯便会无法判断人的位置,进而将光投向错误的位置,可靠性差。
Kinect是微软推出的一款游戏传感器,它可以自动识别人体,并得到人体20个骨骼点(如头部、颈部、腕部、腰部等)相对于Kinect的坐标,因此,该传感器可以应用于其他领域,如自动化投影技术领域。
发明内容
有鉴于此,本发明提供了一种基于Kinect传感器的投影方法,利用Kinect使得投影能够自动追踪人体。
本发明的基于Kinect传感器的投影方法,包括如下步骤:
步骤1,将Kinect传感器与投影仪放置在待投影的真实三维空间前方;
其中,由Kinect传感器获得的深度数据流形成的深度图像定义为深度图像空间,其左上角为原点;定义计算机屏幕为投影空间,其左上角为原点;定义投影仪的投影区域为真实三维空间,其左上角为真实三维空间原点;投影空间的原点经投影仪投射在真实三维空间的原点;
步骤2,利用Kinect传感器获得人体骨骼数据流和深度数据流,利用深度图像空间、真实三维空间、投影空间之间的转换关系,将骨骼数据流和深度数据流变换到投影空间中;
步骤3,根据骨骼点在投影空间中进行人体投影设置,再经投影仪投影至真实三维空间。
其中,所述步骤2中,人体骨骼数据流和深度数据流变换到投影空间中的方法如下:
步骤2.1,利用Kinect for windows SDK程序开发包将骨骼数据流和深度数据流变换到深度图像空间;
步骤2.2,根据深度图像空间与真实三维空间的坐标转换关系,以及投影空间与真实三维空间的坐标转换关系,得到深度图像空间与投影空间之间的转换关系,利用深度图像空间与投影空间之间的转换关系将人体骨骼点映射到投影空间上。
其中,所述步骤2.2中深度图像空间与真实三维空间的坐标转换关系为线性关系:
其中,(Dx、Dy)为深度图像空间中的点的坐标;(Px、Py)为真实三维空间中的点的坐标;k11、k12、b11、b12为系数;
投影空间与真实三维空间的坐标转换关系为线性关系:
其中,(Tx、Ty)为投影空间中的点的坐标;k21、k22为系数;
则深度空间与投影空间的坐标转换关系为:
其中,
kx=1/k11k21
ky=1/k12k22
bx=-b11/(k11k21)
by=-b12/(k12k22) (4)
其中,k11、k12、b11、b12、k21、k22通过实验测量计算获得。
其中,k11、k12、b11、b12、k21、k22的获取方法如下:
①在与系统距离为L的墙面不同位置放置2个立方体小盒,其在真实三维空间的坐标分别为(Px1,Py1,L)和(Px2,Py2,L);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310752671.9/2.html,转载请声明来源钻瓜专利网。





