[发明专利]一种基于深度学习的城中村识别和人口估计方法、系统及计算机可读存储介质有效
申请号: | 202010873246.5 | 申请日: | 2020-08-26 |
公开(公告)号: | CN112215059B | 公开(公告)日: | 2023-10-27 |
发明(设计)人: | 陈龙彪;陆晨晖;袁方旭;王程 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/774;G06V20/52;G06V10/44;G06T7/11 |
代理公司: | 厦门市首创君合专利事务所有限公司 35204 | 代理人: | 张松亭 |
地址: | 361000 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 城中村 识别 人口 估计 方法 系统 计算机 可读 存储 介质 | ||
本发明提供一种基于深度学习的城中村识别和人口估计方法、系统级计算机可存储介质,其中方法包括城中村识别阶段和城中村人口估计阶段,所述城中村识别阶段:提取城市路网图,使用opencv python包在路网图上提取路网轮廓,在遥感卫星图像上切割出图像块;对切割出的图像块进行城中村标注,选取样本构成训练样本集,使用Mask‑RCNN模型进行训练和预测,获取城市遥感卫星图像上的城中村分布图;所述城中村人口估计阶段:在城市遥感卫星图像上的城中村分布图中切割出每一个城中村遥感卫星图像,计算得到房屋容量特征、人群移动特征和区域功能特征;将三者作为输入,利用残差网络模型训练和预测城中村人口数量。本发明提供的方法,具有高效、低耗的优点,同时也达到了较高的识别和估计准确率。
技术领域
本发明涉及城市计算领域领域,特别是指一种基于深度学习的城中村识别和人口估计方法、系统及计算机可读存储介质。
背景技术
城中村出现在许多发展中国家的快速的城市化进程中,它们是滞后于城市发展步伐、游离于现代城市管理之外、生活水平低下的居民区。它们给城市发展带来了严重的社会和经济挑战。定位和划分城中村区域并统计其中人口数量对于政府进行翻新规划城中村非常重要。
传统的城中村识别和人口估计的方法主要依靠城市管理人员的实地调查和人口普查,为了对城中村边界进行清晰划分还必须保证调查人员对城中村具有综合认识。该传统方法的缺陷在于调查过程造成大量时间成本和人力财力成本的消耗。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种基于深度学习的城中村识别和人口估计方法、系统及计算机可读存储介质,基于目标检测与实例分割技术的城中村识别方法和基于异构数据融合的人口估计方法,具有高效、低耗的优点,同时也达到了较高的识别和估计准确率。
本发明采用如下技术方案:
一种基于深度学习的城中村识别和人口估计方法,包括城中村识别阶段和城中村人口估计阶段,具体步骤包括:
所述城中村识别阶段:提取城市路网图,使用opencv python包在路网图上提取路网轮廓,在遥感卫星图像上切割出图像块;对切割出的图像块进行城中村标注,选取样本构成训练样本集,使用Mask-RCNN模型进行训练和预测,获取城市遥感卫星图像上的城中村分布图;
所述城中村人口估计阶段:使用opencv python包在获取的城市遥感卫星图像上的城中村分布图中切割出每一个城中村遥感卫星图像;对城中村遥感卫星图像,利用Mask-RCNN模型训练预测房屋类型,计算得到房屋容量特征;将出租车和共享单车的GPS经纬度坐标映射到城中村遥感卫星图像,统计计算得到人群移动特征;统计各类别的POI数量与城中村真实人口数量,计算两者的斯皮尔曼相关系数,根据计算的斯皮尔曼相关系数选取POI类别,统计各类别的POI数量作为各城中村的区域功能特征;将房屋容量特征、人群移动特征和区域功能特征作为输入,利用残差网络模型训练和预测城中村人口数量。
具体地,所述提取城市路网图,使用opencv python包在路网图上提取路网轮廓,具体包括:
按照遥感卫星图像的像素比例,定义同样大小的网格;
将每个出租车的GPS坐标映射到对应的网格内,累加每个网格内的出租车数量;
设定适当的阈值,将超过阈值的网格置为白色,低于阈值的网格置为黑色,得到与卫星遥感图像同样大小的二值路网图;
使用opencv python包在路网二值图像上提取路网轮廓。
具体地,所述对切割出的图像块进行城中村标注,选取样本构成训练样本集,使用Mask-RCNN模型进行训练和预测,获取城市遥感卫星图像上的城中村分布图,具体包括:
使用labelme图像标注工具对图像块进行城中村标注;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010873246.5/2.html,转载请声明来源钻瓜专利网。