[发明专利]一种基于SVM与强化学习的室内场景识别方法在审
| 申请号: | 201810726023.9 | 申请日: | 2018-07-04 | 
| 公开(公告)号: | CN109063739A | 公开(公告)日: | 2018-12-21 | 
| 发明(设计)人: | 黄学艺;刘华平;宋彦;袁胜;赵江海 | 申请(专利权)人: | 合肥中科自动控制系统有限公司 | 
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 | 
| 代理公司: | 合肥市上嘉专利代理事务所(普通合伙) 34125 | 代理人: | 郭华俊 | 
| 地址: | 230000 安徽省合肥市高*** | 国省代码: | 安徽;34 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 室内场景 决策网络 强化学习 激光测距传感器 场景识别 分类结果 激光测距 机器人动作 采集数据 神经网络 实验过程 投影信息 信息输入 信息转化 主动识别 轮廓图 运算量 正确率 拟合 采集 场景 融合 分类 重复 决策 网络 | ||
本发明公开了一种基于SVM与强化学习的室内场景识别方法,该方法包括以下步骤:(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns;(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为决策网络NQ,决策网络NQ通过Ns判别分类结果优劣;(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。该方法将激光测距信息转化为场景轮廓图环投影信息用SVM进行场景识别,减少了运算量,提高场景识别正确率。
技术领域
本发明涉及一种室内场景识别方法,尤其涉及一种基于SVM与强化学习的室内场景识别方法。
背景技术
近年来,机器人场景识别已经以用于越来越多的机器人定位功能中。机器人在陌生环境中尽快识别所处环境类型,为其实现其它各种功能比如路径规划、行为控制等奠定了基础。现阶段的应用场景中,机器人搭载的激光传感器仅能获取前方180°的距离信息,由于机器人方位的局限性和低成本传感器的数据局限性造成场景识别准确率低下。
现有一份发明专利申请文件,专利申请主题为“一种基于单隐层神经网络的场景识别方法”,申请公开号为105678278A,公开的技术方案为:在训练阶段通过对预先采集的样本图像集进行预处理,提取样本图集提取局部梯度统计特征,将特征同其对应标签一同输入到单隐层分类神经网络进行监督式学习;在识别阶段对待识别的图像进行预处理并提取特征输入到训练好的场景分类神经网络中进行识别,得到识别结果。该方法的缺点是,采用场景图片作为训练样本数据,样本体积庞大复杂,造成运算缓慢;只能依靠采集样本数据的丰富程度来提高识别准确率,工作量庞大。
发明内容
本发明的目的是提供一种基于SVM与强化学习的室内场景识别方法,为了解决现有技术只能依靠采集样本数据的丰富程度来提高识别准确率,工作量庞大的问题。
为了实现上述目的,本发明采用了如下技术方案:
本发明提供一种基于SVM与强化学习的室内场景识别方法,该方法包括以下步骤:
(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns;
(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为决策网络NQ,决策网络NQ通过Ns判别分类结果优劣;
(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。
优选地,所述步骤(1)具体步骤如下:
(1-1)室内场景采集激光雷达数据,命名为数据集D;
(1-2)数据集D中随机挑选Ntrain组样本,记为训练集样本Dtrain={d1,d2,L,dNtrain},以及标签S中与其相对应的训练集标签Strain={s1,s2,L strain};
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥中科自动控制系统有限公司,未经合肥中科自动控制系统有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810726023.9/2.html,转载请声明来源钻瓜专利网。





