[发明专利]估计运动目标三维位置的装置及其方法无效
| 申请号: | 98106287.3 | 申请日: | 1998-04-10 |
| 公开(公告)号: | CN1056689C | 公开(公告)日: | 2000-09-20 |
| 发明(设计)人: | 姜豪奭 | 申请(专利权)人: | 三星电子株式会社 |
| 主分类号: | G01C11/00 | 分类号: | G01C11/00 |
| 代理公司: | 柳沈知识产权律师事务所 | 代理人: | 马莹 |
| 地址: | 韩国*** | 国省代码: | 暂无信息 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 估计 运动 目标 三维 位置 装置 及其 方法 | ||
本发明涉及估计三维位置的装置及其方法,特别涉及估计运动目标三维位置的装置及其方法,其中对该运动目标附加彩色标记。
虚拟现实是通过使用先进的计算机图形和仿真技术提供真实效果的一种计算应用。例如,使用虚拟现实程序,在设计一建筑时,在建造建筑之前就可以预知各种问题。
在如上的虚拟现实程序中,当一个人或物体(以后,运动对象将称为目标)运动时,必须通过追踪目标的运动来估计目标的三维位置以便平滑目标的运动。为估计运动目标的三维位置,必须同时获得同一目标的两个图像。利用传统的方法,这两个图像如下获得。
首先,可以反射光的黑白标记被附加在目标的各个部分,并且目标图像由多个摄像机以0.01秒的间隔连续拍摄。连接到摄像机的计算机检查从摄像机输出的全部像素值。这里,由于每个标记仅提供明暗信息,因此仅可决定图像的一部分是否对应于一个标志,而不能区分不同的标记。从而,标记的识别通过利用每个摄像机摄取图像序列、观测每个序列中的标记的运动、和依据被观测的运动在每个摄像机序列之间匹配标记来进行。只有这样才能计算每一标记的三维位置。
然而,在上面的传统方法中,利用明暗信息仅能决定图像的一个部分是否表示一个标记。同时获得的两幅图像的标记是否相同也仅能在处理下一组图像之后才能被确定。从而需要花费很长时间来计算位置信息。
为解决上述问题,本发明的目的在于提供一种估计运动目标三维位置的装置及其方法,其中,多个不同彩色的标记被附加到目标上,从而每一标记容易在彩色图像中被识别。
依据该目的的一个方面,提供一种利用附加到运动目标的多个部分上的标记来估计运动目标三维位置的装置,该装置包括:附加到运动目标上的多个标记,并且每个标记发射或反射不同的彩色;至少两个对具有标记的运动目标进行摄像的彩色摄像机;和在多个彩色摄像机同时拍摄的至少两个不同图像上识别每个标记、和从所拍摄的多个图像中具有相同彩色的标记的位置来计算运动目标的三维位置的图像处理器。
依据该目的的另一方面,提供一种估计运动目标三维位置的方法,该方法包括以下步骤:(a)将每个发射或反射不同彩色的多个标记附加到运动目标上;(b)利用至少两个摄像机,同时拍摄具有多个标记的目标;(c)从同时摄取的多个彩色图像中提取标记的图像;(d)通过这些图像的彩色来识别标记,并且在至少两个图像中计算同一标记的位置;和(e)利用步骤(d)中计算的标记位置计算目标的三维位置。
通过结合附图详细描述本发明的一个优选实施例,本发明的上述目的和优点将变得更加明显,其中,
图1是依据本发明的运动目标和一个估计运动目标三维位置的装置的示意图;
图2是解释依据本发明估计运动目标三维位置的方法的流程图;和
图3是解释图2的计算通常包含在同一目标的两个不同图像中的多个标记的三维位置的步骤的示意图。
在图1中,依据本发明估计运动目标三维位置的装置包括:一个标记部102;一个包含第一摄像机104、第二摄像机106和第三摄像机108的摄像机部;和一个图像处理器110。这里,标号100代表运动目标。
标记部102包括多个彩色标记。这里,这些标记附加到运动目标100的运动频繁的部分,如人的头、臂、手和腿。彩色标记是发光二极管(LED)或者是可以反射光的彩色物体。使用摄像机部分的摄像机104、106和108,摄取附加有多个彩色标记的运动目标的多个图像。需要多于一个摄像机是因为,首先,至少需要两个图像来获得三维位置,其次,仅从一个方向的图像不足以捕获全部标记。
图像处理器110从第一、第二和第三摄像机104、106和108的至少两个输入的图像中提取标记图像,识别标记的彩色,和计算每个标记的三维位置。
下面参考图2和3来描述本发明的操作和效果。
首先,多个彩色标记102附加到运动目标100的各个部分(步骤200)。然后,目标图像由摄像机104、106和108输入到图像处理器110(步骤202)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三星电子株式会社,未经三星电子株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/98106287.3/2.html,转载请声明来源钻瓜专利网。





