[发明专利]虚拟试衣系统的相机阵列定位方法在审
申请号: | 202111294351.4 | 申请日: | 2021-11-03 |
公开(公告)号: | CN113963062A | 公开(公告)日: | 2022-01-21 |
发明(设计)人: | 魏帅;梁哲;夏冰;李星;陈安宇 | 申请(专利权)人: | 魏帅 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/80;G06Q30/06 |
代理公司: | 郑州异开专利事务所(普通合伙) 41114 | 代理人: | 韩鹏程 |
地址: | 450008 河南省*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟 试衣 系统 相机 阵列 定位 方法 | ||
本发明公开了一种虚拟试衣系统的相机阵列定位方法,包括获取相机参数,确定相机与待拍摄物体间的水平距离;计算单台相机垂直方向拍摄高度;确定待拍摄物体的高度和垂直方向需安装相机数量;按照自下到上,确定垂直方向的第一相机的离地高度;计算垂直方向上相邻相机拍摄的重叠范围;确定垂直方向上每个相机的安装位置。本发明优点在于提出了一种能够根据不同类型相机参数,确定虚拟试衣系统需要安装相机的数量和安装位置,既保证待测人体全部处于设备的视场内,又保证相邻两台相机之间的视角具有一定的交叉重叠,使相机阵列定位更精准,减少相机的标定误差,便于后续数据处理时提取和匹配不同视角的图像特征点,提高三维人体重建的质量和效率。
技术领域
本发明涉及虚拟试衣领域,尤其是涉及虚拟试衣系统的相机阵列定位方法。
背景技术
虚拟试衣是服装CAD系统的热点研究方向,它利用人体的三维信息,通过计算机图形学技术为用户建立自己的个性化三维人体模型,然后将用户挑选的衣服“穿”到本人的个性化三维模型上,最终得到用户三维人体模型的立体着装效果图,主要用于服装新产品的开发以及服装销售。三维人体重建技术、面料仿真和衣服试穿是虚拟试衣系统三大主要技术,其中,三维人体重建技术是虚拟试衣系统的载体,决定着试衣效果的优劣。
目前虚拟试衣系统按图像采集方式可分为主动式和被动式。主动式是利用三维扫描仪或深度摄像头配合机械转台将光学信号发射到人体上,然后捕获反射的信号,来获得人体的表面深度信息和建立三维模型,优点是测量精度高,扫描速度快,缺点就是价格高,系统庞大、复杂,对光照有严格的限制。被动式则大多借助多视角立体(Multi-viewStereo)三维重建技术(简称MVS重建),使用多台(套)相机对人体进行多个角度同步拍摄获取该场景不同视角图片序列,然后对不同视角图像之间具有代表性的特征点进行提取与匹配,重建场景的稀疏点云,再不断添加新的图像获得场景目标的稠密点云,最后将点云网格化重建得到人体的三维模型,这种方法的优点就是成本较低,对室内外不同场景的重建的可靠性和适应性均有更好的表现。
在被动式三维重建技术中,图像采集单元可以设置为单列相机移动拍摄,也可以设置为多列相机同步拍摄。但是,目前无论是单列相机移动拍摄还是相机阵列同步拍摄,均采用“将相机均匀布置在支架上,完成对整个人体的覆盖”的方法,这就导致以下两个问题:
第一,相机数量太多,造成计算数据冗余,三维重建过程复杂、耗时长。
第二,相机数量不够或布设位置有偏差,导致被测量人体不完全处在待测量范围内,或部分场景拍摄视角存在遮挡,或者无法保证相邻两台相机视角具有一定的的重叠交叉,可能增大相机的标定误差,不同视角图像中的特征点误匹配和噪声增多,导致退化和包含噪声的三维重建结果。
因此,虚拟试衣系统需要一种有效的相机阵列定位方法,既能够保证三维重建结果的精度和效率,又不会造成资源浪费,成本增加。
发明内容
本发明目的在于提供一种虚拟试衣系统的相机阵列定位方法,用于快速确定相机阵列的相机数量和安装位置,既能够对相机阵列进行精准的定位,减少相机标定误差,保证三维重建结果的精度,又避免资源浪费,增加成本。
为实现上述目的,本发明采取下述技术方案:
本发明所述一种虚拟试衣系统的相机阵列定位方法,包括以下步骤:
S1,获取相机参数,确定相机与待拍摄物体间的水平距离;
S2,计算单台相机垂直方向拍摄高度;
S3,确定待拍摄物体的高度和垂直方向需安装相机数量;
S4,按照自下到上,确定垂直方向的第一相机的离地高度;
S5,计算垂直方向上相邻相机拍摄的重叠范围;
S6,确定垂直方向上每个相机的安装位置;
进一步地,S1步中,所述相机参数包括相机的有效拍摄距离、垂直视角和水平视角。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于魏帅,未经魏帅许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111294351.4/2.html,转载请声明来源钻瓜专利网。