[发明专利]一种建造场景下吊装对象的识别方法有效
申请号: | 202011532797.1 | 申请日: | 2020-12-23 |
公开(公告)号: | CN112561989B | 公开(公告)日: | 2022-11-01 |
发明(设计)人: | 郭红领;周颖;叶啸天;张知田;罗柱邦 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/66;G06T7/60;G06T7/13;G06T7/168;G06T7/62;G06V10/82;G06V10/764;G06V10/774;G06T5/00;G06T7/90;G06F16/51;G06F16/583 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 罗文群 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 建造 场景 吊装 对象 识别 方法 | ||
本发明属于建筑施工自动化技术领域,尤其涉及一种建造场景下吊装对象的识别方法。本发明包括图像采集和预处理、图像处理、特征提取以及数据库检索。首先基于收集的原始数据,使用Faster R‑CNN检索并分割吊装对象的二维图像。然后,由Canny检测,霍夫变换,端点聚类分析和基于顶点判断模型组成的循环图像处理,以确定吊装对象的顶点和边缘。此外,通过数据融合,即具有颜色信息的二维图像像素点到三维空间点的映射,确定特征点的颜色信息,二维像素坐标和三维空间坐标,从而提取吊装对象的可见特征,最后根据提取的吊装对象可见特征通过数据库检索进一步获取吊装对象的不可见特征,为自动化吊装、智能建造提供信息基础。
技术领域
本发明属于建筑施工自动化技术领域,尤其涉及一种建造场景下吊装对象的识别方法。
背景技术
建筑业是推动我国国民经济发展和社会进步的支柱产业,为国家经济发展作出了重要贡献。但随着建筑业的快速发展,建筑业的工人老龄化问题愈发严重,工人总数逐年下降,中老年劳动力比例却逐年上升。与此同时,由于建筑施工的动态性、复杂性、大体量,施工现场安全管理困难,建筑业安全事故频发。自2012年起,我国建筑业由安全事故引起的人员死亡人数已经超过煤矿行业,建筑业成为我国所有工业生产领域中最危险的行业。
近年来,随着信息技术的飞速发展,建筑自动化和机器人技术为解决上述问题提供了新的思路。移动式起重机作为施工现场使用最广的机械设备之一,实现其自动化吊装对推动智能建造,提高建筑业生产率,减少施工安全事故的重要性不言而喻。然而,现有研究对于起重机的自动化操作主要侧重以下方面,包括起重机的选型、定位、吊装路径规划、多起重机协同作业、起重机操作模拟和可视化等。并且这些研究大多关注的是起重机作业的自动规划,而不是作业本身的自动化,尤其缺乏对于现场吊装对象自动识别的研究,即通过提供吊装对象的初始位置和其他必要信息,构成起重机自动化操作的基础。目前,施工现场主要采用传统的人工观察方式,确定吊装对象原始位置。由起重机操作员或信号工作人员观察周围环境,并通过手势传输信息,不仅费时还容易出错,不适合自动化吊装。
近年来,新技术的飞速发展,尤其是图像处理技术和三维激光扫描技术的发展,使得施工现场吊装对象的自动识别成为可能。通过比较两种技术在处理效率、成本和识别精度方面的关键参数,图像处理技术比激光扫描处理效率更快、成本更经济,其精度亦满足施工现场环境感知的要求。此外,激光传感器通常搭载于无人机上采集点云数据,受政策限制和隐私保护亦无法在施工现场大面积推广。现有研究表明图像处理技术在建筑业的应用可以显著提高建筑生产效率,如使用分类器区分收集的二维彩色图像中健康和潜在不健康的建筑组件表面纹理,进行损坏检测,可以减少90%的检测工作量。这些都使得基于图像的吊装对象自动实时识别方法成为可能。但是,对于吊装对象识别,现有研究大都基于传感器采集的目标对象点云或图像,通过模型匹配识别吊装对象,对建筑信息模型要求度较高且鲁棒性较差,未充分利用识别得到的吊装对象特征信息。
发明内容
本发明的目的是提出一种建造场景下吊装对象识别方法,以及一种施工现场吊装对象自动识别原型系统,从施工现场作业的视频或者图像中自动识别吊装对象,并提取出自动化吊装需要的特定吊装对象信息,为自动化吊装、智能建造提供信息基础。
本发明提出的建造场景下吊装对象的识别方法,包括以下步骤:
(1)用立体相机从不同角度拍摄施工现场场景,得到一个点云文件;点云文件中的(x,y,z)代表施工现场场景中任意一个空间点的三维坐标,点云文件中的(u,v)代表相应图像像素坐标,点云文件中的(R,G,B)代表像素颜色信息;
(2)对Faster R-CNN模型进行训练,得到一个训练后的Faster R-CNN模型;
(3)根据步骤(1)的点云文件中的(u,v,R,G,B),得到施工现场场景图像,利用步骤(2)的训练后的FasterR-CNN模型,从施工现场场景图像中提取待识别吊装对象的前景即边界框以及吊装对象的种类;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011532797.1/2.html,转载请声明来源钻瓜专利网。