[发明专利]基于ESN神经网络的移动机器人场景识别方法有效
| 申请号: | 201810028630.8 | 申请日: | 2018-01-10 |
| 公开(公告)号: | CN108256463B | 公开(公告)日: | 2022-01-04 |
| 发明(设计)人: | 苑晶;杨少坤;董星亮;孙沁璇 | 申请(专利权)人: | 南开大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 杜文茹 |
| 地址: | 300071*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 esn 神经网络 移动 机器人 场景 识别 方法 | ||
1.一种基于ESN神经网络的移动机器人场景识别方法,其特征在于,包括如下步骤:
1)从构成场景的图像序列中,提取ORB特征点,再从提取到的ORB特征点中,提取PIRF特征点;包括:
(1)设有图像序列I={I1,I2,I3,…,Ii,…,IN},对于每幅图像Ii分别提取ORB特征点,每个ORB特征点都用一个特征向量来表示,得到每幅图像Ii的ORB特征点的集合Si={Si1,Si2,Si3,…,Sin};
(2)分别从每幅图像Ii的ORB特征点的集合Si={Si1,Si2,Si3,…,Sin}中,提取PIRF特征点,分别得到每幅图像Ii的PIRF特征点的集合Pi={Pi1,Pi2,Pi3,…,Pim};
2)对从图像序列中提取的PIRF特征点,使用词袋模型建立词袋码本,使用词袋码本为图像序列中的每幅图像计算编码向量;包括:
(1)对从所有图像中提取到的全部PIRF特征点使用K-means聚类的方法进行聚类,设聚类后的集合WP为:
WP={WP1,WP2,WP3,…,WPi,…,WPK}
则词袋码本即为WP,其中WPi被称为第i个词条;
(2)使用词袋码本为图像序列中的每幅图像Ii计算编码向量,包括:
(2.1)设从图像Ii中提取到的PIRF特征点集合为Pi={Pi1,Pi2,Pi3,…,Pij,…,Pim},对其中的每个PIRF特征点Pij,在集合WP中找到与该特征点Pij欧氏距离最小的词条,最后得到与所有特征点欧氏距离最小的词条集合Hi={WPi1,WPi2,WPi3,…,WPij,…WPim},其中WPij表示集合WP中与特征点Pij欧氏距离最小的词条,WPij∈WP;
(2.1)对词条集合Hi中的元素做频率统计,得到统计向量Ti={Ti1,Ti2,Ti3,…,Tin,…,TiK},其中Tin表示第n个词条在集合Hi中出现的频率;称统计向量Ti为图像Ii的编码向量;
3)构建ESN神经网络,以每幅图像的编码向量作为ESN神经网络的输入,在线训练ESN神经网络,根据输出结果识别和提取图像序列中的场景信息;包括:
(1)建立一个ESN神经网络,表示为:
scene=f(para,T)
其中,T为一幅图像的编码向量,scene是ESN神经网络的输出结果,是一个设定维度的向量,para表示ESN神经网络的相关参数;
(2)从图像序列I={I1,I2,I3,…,Ii,…,IN}中取出前m幅图像{I1,I2,I3,…,Im},分别计算每幅图像的编码向量{T1,T2,T3,…,Tm},并将计算得到的编码向量作为训练样本,对ESN神经网络进行训练,设训练完成后ESN神经网络的参数为para1,2,3,…,m,设第m幅图像的编码向量Tm的输出结果为scenem,令SCcurrent=scenem;
(3)分别创建集合SC和集合Para,将scenem加入到集合SC中,将para1,2,3,…,m加入到集合Para中,设scenem与para1,2,3,…,m相对应;
(4)对图像序列中剩余的图像分别做以下处理,具体为:
(4.1)设当前处理的图像为In,编码向量为Tn;把编码向量Tn输入到ESN神经网络中,得到输出结果记为scenen;
(4.2)将scenen与SCcurrent做比较,若两者的欧氏距离小于设定阈值,则返回第(4.1)步继续处理下一张图像,否则进入下一步;
(4.3)用图像序列{In,In+1,In+2,…,In+c}中的每一个图像的编码向量Tn,Tn+1,Tn+2,…,Tn+c作为训练样本,对ESN神经网络进行训练,设训练完成后的ESN神经网络的参数为paran,n+1,…,n+c,其中,编码向量Tn+c的输出结果为scenen+c,将scenen+c与集合SC的元素做比较,如果scenen+c与集合SC中的每个元素的欧氏距离均大于预先设定的阈值,则将scenen+c作为新元素加入到集合SC中,将paran,n+1,…,n+c作为新元素加入到集合Para中,设scenen+c与paran,n+1,…,n+c相对应,否则,找出集合SC中与scenen欧氏距离最小的元素,设为scenemin;在集合Para中找到与scenemin对应的元素,记为paramin,用paramin替换当前的ESN神经网络参数,令SCcurrent=scenemin;
(4.4)对所有图像处理完毕后,得到集合SC,以及所有图像的输出结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810028630.8/1.html,转载请声明来源钻瓜专利网。





