[发明专利]一种基于Kinect V2的实时三维重建方法与系统在审
申请号: | 201811573802.6 | 申请日: | 2018-12-21 |
公开(公告)号: | CN109741382A | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 潘红光;苏涛;黄向东;邓军;高磊;倪琪;薛纪康 | 申请(专利权)人: | 西安科技大学 |
主分类号: | G06T7/50 | 分类号: | G06T7/50;G06T7/80;G06T7/90;G06T17/00;G06T5/00 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 段俊涛 |
地址: | 710055*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维重建 重建 电动旋转平台 三维点云模型 三维重建装置 计算机处理 步进电机 点云模型 过程转换 加速处理 滤波去噪 目标函数 融合算法 视觉效果 映射算法 低成本 可视化 鲁棒性 三脚架 深度图 算法 拼接 投影 并行 相机 简易 融合 计算机 应用 优化 改进 | ||
一种基于Kinect V2的实时三维重建方法及系统,系统包括一个可定时的匀速步进电机电动旋转平台,固定在三脚架上的Kinect V2相机,以及计算机;本发明基于经典KinectFusion三维重建算法,并对深度图的滤波去噪进行改进,以提高重建质量;对ICP算法中的目标函数进行优化,增强系统的鲁棒性,同时在模型的融合算法中,加入RGB数据与点云模型进行拼接融合,对模型赋以颜色提高可视化视觉效果,最后利用投影映射算法获得一个更精确具体的三维点云模型。本系统使用GPU并行加速处理数据,使得重建速度达到每秒25帧左右,可实时、精确重建物体,能广泛应用于低成本的快速三维重建。最终将计算机处理的过程转换到ARM微处理器中,并加入wifi传输模块,集成得到一个简易的三维重建装置。
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于Kinect V2的实时三维重建方法与系统。
背景技术
快速、低成本、精确、方便地获取物体三维模型一直以来都是计算机视觉与图形学领域的研究热点。基于图片的被动式的三维重建虽然能够方便、低成本地获取到物体的三维模型,但其特征提取和匹配依赖于光照环境和物体表面的纹理特征,且重建点云大多较为稀疏。Kinect v2的全称是Kinect forWindows v2sensor,是微软第二代Kinect外设,采用了与第一代完全不同的TOF(time-of-flight)测量技术。Kinect v2和第一代Kinect v1都是作为微软游戏机Xbox深度传感器硬件的外设,主要设计用于获取、分析用户的动作和语音。由于它能够实时、精确地获取物体的深度和彩色图像信息,Kinect系列产品也可以作为一种理想的三维重建外设,虽然重建精度不能达到工业制造水平,但是利用它重建出来的三维模型依然可以广泛应用于机器人定位导航、虚拟现实、产品展示、影视游戏等等。且Kinect用于三维扫描,具有快速、低成本、精确、方便等优点。
不同于第一代Kinect采用的结构光深度测量技术,Kinect v2采用了ToF深度测量技术。Kinect v2提供了更高的数据获取速度,达到了每秒60帧,拥有更高的深度数据保真度,更大的视角,其彩色相机也更为出色。实验结果显示,在更大深度有效范围内,Kinectv2的精度优于Kinect v1。基于此,研究使用基于Kinect v2进行物体三维重建有重要的意义。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于Kinect V2的实时三维重建方法与系统,对深度滤波去噪算法进行改进,并利用四元数方法对ICP算法中的目标函数进行改进,增强系统的鲁棒性;在模型融合方面利用RGB彩色数据信息与点云三维模型信息以及相机位置信息,拼接融合出附有色彩的模型,增强三维重建的可视化效果。最终基于本系统,集成硬件和软件,做出一个简易的三维重建装置。本系统成本低廉、通用性强、灵活性好、结构简单,可以实现实时三维重建。
为了实现上述目的,本发明采用的技术方案是:
一种基于Kinect V2的实时三维重建方法,其特征在于,包括以下步骤:
步骤1,深度数据和RGB数据获取:初始化参数,通过Kinect V2相机获取物体的深度数据和RGB彩色数据;
步骤2,深度图滤波去噪:利用直通滤波器选择出视场内的物体,并利用所述深度数据进行该物体的三维重建;
步骤3,RGB彩色图滤波处理:采用直通滤波器去除物体以外的背景和环境数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安科技大学,未经西安科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811573802.6/2.html,转载请声明来源钻瓜专利网。