[发明专利]基于深度学习的灯具识别的室内定位方法、装置及系统有效
| 申请号: | 201910429230.2 | 申请日: | 2019-05-22 |
| 公开(公告)号: | CN110309715B | 公开(公告)日: | 2021-05-25 |
| 发明(设计)人: | 周安福;张欢欢;徐冬竹;徐少青;张新宇;马华东 | 申请(专利权)人: | 北京邮电大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T5/00;G06T7/73;G06T7/90 |
| 代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 丁芸;马敬 |
| 地址: | 100876 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 学习 灯具 识别 室内 定位 方法 装置 系统 | ||
本发明实施例提供了一种基于深度学习的灯具识别的室内定位方法、装置与系统,所述方法包括:客户端获取待识别的包含可见光特征信息的第一图像,并对所述第一图像依次进行光晕及亮度补偿预处理,得到第二图像,将所述第二图像发送至服务器;服务器接收客户端发送的第二图像,将所述第二图像输入预先训练的卷积神经网络中,得到所述第二图像对应的分类结果,并将所述分类结果与数据库中预先存储的类别信息匹配,当所述分类结果与所述类别信息匹配成功时,将所匹配的类别信息对应的位置信息发送至客户端;客户端接收服务器返回的位置信息,并根据所述位置信息进行定位。本发明实施例,能够提高可见光特征识别的准确性,进一步提高定位的准确性。
技术领域
本发明涉及室内定位技术领域,特别是涉及一种基于深度学习的灯具识别的室内定位方法、装置与系统。
背景技术
随着科学技术的进步,定位技术在备受关注的同时发展迅速。精准的室内定位技术可以广泛的服务于人类,为人类生活带来巨大的影响,如零售商店的用户导航和定向广告,移动增强现实游戏,医院自动化物流等。
现有VLP(visible light positioning,可见光定位)技术为:将可见光作为传输信号,在接收到包含该信号的信息之后,识别该信息中的可见光特征,进而将识别的结果进行数据匹配,以实现基于可见光的定位。目前可应用于VLP技术中进行可见光识别的方法为:美国加州大学圣地亚哥分校推出的iLAMP方法,人工设计一种称为SRP(SpaceRadiation Pattern,空间辐射模式)的特征识别算法来区分不同灯,SRP从统计学上描述了光在物体上的辐射分布,该方法制作成本低,易于部署。
但SRP在实际应用中,特征识别能力不足,无法识别许多灯具模型,如没有栅格的FLs(flsorescence,荧光灯),小的圆形LED灯等。此外,SRP的该特性会被相机伪影严重扭曲,比如:JPEG(Joint Photographic Experts Group,联合图像专家组)压缩和传感器轻微的方向变化,此处的传感器可以是手机摄像头等。该SRP使得特征识别的准确性较低,进而影响定位的准确性。
发明内容
本发明实施例的目的在于提供一种基于深度学习的灯具识别的室内定位方法、装置及系统,以提高可见光特征识别的准确性,进一步提高定位的准确性。具体技术方案如下:
第一方面,本发明实施例提供了一种基于深度学习的灯具识别的室内定位方法,应用于客户端,所述方法包括:
获取待识别的包含可见光特征信息的第一图像,所述第一图像包括:第一基准图像和第一非基准图像;所述第一基准图像为使用基准成像设备所拍摄得到的图像,所述第一非基准图像为使用非基准成像设备所拍摄得到的图像;
对所述第一图像依次进行光晕及亮度补偿预处理,得到第二图像;
将所述第二图像发送至服务器,以使所述服务器返回针对所述第二图像的位置信息;
接收所述服务器返回的所述位置信息,并根据所述位置信息进行定位。
可选地,所述对所述第一图像依次进行光晕及亮度补偿预处理,得到第二图像的步骤,包括:
基于预设的第二基准图像,对所述第一图像进行光晕补偿,得到第三基准图像和第二非基准图像;
将所述第二非基准图像的亮度均值,与所述第三基准图像的亮度均值的比值,确定为伽马补偿的伽马参数值;
利用第一预设表达式,对所述第二非基准图像进行伽马补偿,得到第三非基准图像;
分别计算所述第三非基准图像对应的RGB三通道的每一通道的亮度均值,以及所述第三基准图像对应的RGB三通道的每一通道的亮度均值;
针对RGB三通道的每一通道,计算该通道下所述第三非基准图像的亮度均值与所述第三基准图像的亮度均值的比值,将所得比值作为第一比值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910429230.2/2.html,转载请声明来源钻瓜专利网。





