[发明专利]一种基于Kinect传感器的投影方法有效
| 申请号: | 201310752671.9 | 申请日: | 2013-12-31 |
| 公开(公告)号: | CN103747196B | 公开(公告)日: | 2017-08-01 |
| 发明(设计)人: | 杨毅;吕宪伟;李一锦;李星河;朱昊;程思源 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | H04N5/74 | 分类号: | H04N5/74;H04N9/31;G03B35/18 |
| 代理公司: | 北京理工大学专利中心11120 | 代理人: | 付雷杰,杨志兵 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于Kinect传感器的投影方法。使用本发明能够利用Kinect使得投影能够自动追踪人体,产生丰富多彩的舞台效果。本发明利用Kinect传感器获得人体骨骼数据流和深度数据流,然后根据深度图像空间、真实三维空间、投影空间之间的转换关系,将骨骼数据流和深度数据流变换到投影空间中,并根据骨骼点在投影空间中进行人体投影设置,再经投影仪投影至真实三维空间,产生丰富多彩的舞台效果。本发明不要演员随身携带设备,也不需要多台投影设备,设备简单,使用方便、可靠。 | ||
| 搜索关键词: | 一种 基于 kinect 传感器 投影 方法 | ||
【主权项】:
一种基于Kinect传感器的投影方法,其特征在于,包括如下步骤:步骤1,将Kinect传感器与投影仪放置在待投影的真实三维空间前方;其中,由Kinect传感器获得的深度数据流形成的深度图像定义为深度图像空间,其左上角为原点;定义计算机屏幕为投影空间,其左上角为原点;定义投影仪的投影区域为真实三维空间,其左上角为真实三维空间原点;投影空间的原点经投影仪投射在真实三维空间的原点;步骤2,利用Kinect传感器获得人体骨骼数据流和深度数据流,利用深度图像空间、真实三维空间、投影空间之间的转换关系,将骨骼数据流和深度数据流变换到投影空间中;其中,人体骨骼数据流和深度数据流变换到投影空间中的方法如下:步骤2.1,利用Kinect for windows SDK程序开发包将骨骼数据流和深度数据流变换到深度图像空间;步骤2.2,根据深度图像空间与真实三维空间的坐标转换关系,以及投影空间与真实三维空间的坐标转换关系,得到深度图像空间与投影空间之间的转换关系,利用深度图像空间与投影空间之间的转换关系将人体骨骼点映射到投影空间上;所述步骤2.2中深度图像空间与真实三维空间的坐标转换关系为线性关系:Dx=k11Px+b11Dy=k12Py+b12---(1)]]>其中,(Dx、Dy)为深度图像空间中的点的坐标;(Px、Py)为真实三维空间中的点的坐标;k11、k12、b11、b12为系数;投影空间与真实三维空间的坐标转换关系为线性关系:Px=k21TxPy=k22Ty---(2)]]>其中,(Tx、Ty)为投影空间中的点的坐标;k21、k22为系数;则深度空间与投影空间的坐标转换关系为:Tx=kxDx+bxTy=kyDy+by---(3)]]>其中,kx=1/k11k21ky=1/k12k22bx=‑b11/(k11k21)by=‑b12/(k12k22) (4)其中,k11、k12、b11、b12、k21、k22的获取方法如下:①在与系统距离为L的墙面不同位置放置2个立方体小盒,其在真实三维空间的坐标分别为(Px1,Py1,L)和(Px2,Py2,L);其中,所述系统为由Kinect传感器、投影仪与计算机组成的系统;②在深度图像中找到2个立方体小盒对应的像素点坐标(Dx1,Dy1)和(Dx2,Dy2);③利用(Dxi,Dyi)和(Pxi,Pyi)之间的关系,i=1,2,确定出(1)式的参数k11、k12、b11、b12;④令投影空间右下角坐标为(320,240),用米尺测量出真实三维空间中投影区域右下角坐标为(Pxb,Pyb,L),得到k21=Pxb/320,k22=Pyb/240;⑤将实验得到的参数k11、k12、b11、b12、k21、k22代入式(4),得到距离L下的式(3)的参数值kx、ky、bx、by;步骤3,根据骨骼点在投影空间中进行人体投影设置,再经投影仪投影至真实三维空间。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310752671.9/,转载请声明来源钻瓜专利网。





