[发明专利]基于对抗生成网络的自主移动机器人自监督学习及导航方法在审
| 申请号: | 202110459188.6 | 申请日: | 2021-04-27 |
| 公开(公告)号: | CN113156957A | 公开(公告)日: | 2021-07-23 |
| 发明(设计)人: | 邹俊成;尹玲;乔红;庞伟;刘佳玲 | 申请(专利权)人: | 东莞理工学院 |
| 主分类号: | G05D1/02 | 分类号: | G05D1/02;G06N3/04;G06N3/08 |
| 代理公司: | 北京惟盛达知识产权代理事务所(普通合伙) 11855 | 代理人: | 董鸿柏 |
| 地址: | 523000 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 对抗 生成 网络 自主 移动 机器人 监督 学习 导航 方法 | ||
1.一种基于对抗生成网络的自主移动机器人自监督学习及导航方法,其特征在于,具体包括如下步骤:
S1:设置机器人的动作训练次数K;
S2:机器人采集到环境的状态图像;
S3:机器人计算状态图像与上一时刻预测图像之间的损失函数,再以损失函数计算奖惩信号;
S4:更新视频预测生成网络NN1权重,所述视频预测生成网络NN1与判别网络NN2组成对抗生成网络;
S5:预测动作和下一时刻图像,然后执行动作;
S6:重复S2-S5,直至达到第K次;
S7:加权所有奖惩信号,再更新视频预测生成网络权重。
2.按照权利要求1所述的基于对抗生成网络的自主移动机器人自监督学习及导航方法,其特征在于预测的具体步骤如下:
S5.1:在t1时刻,采集到了i1′图像;
S5.2:将i1′图像输入视频预测生成网络NN1,预测得出t2时刻的图像i2及控制信号action;
S5.3:动作执行完成后采集到t2时刻的图像i2′;
S5.4:通过综合损失La和GDL损失Lgdl共同计算所预测出来的图像i2和采集到的图像i2′的损失loss;
S5.5:再通过该loss计算奖惩信号rs;
S5.6:再以rs更新NN1的网络权重。
3.按照权利要求2所述的基于对抗生成网络的自主移动机器人自监督学习及导航方法,其特征在于S5.4中:
La=λ1*L1+λ2*L2+λgdl*Ladl+λGANs*LGANs (1)
LGANs=fCE(NN2(i2),NN2(i2′)) (5)
λ1,λ2,λgdl,λGANs是对应的系数,根据经验及实际实验进行设置。pi,j指的是图像i2的一个像素值,p′i,j指的是i2′的像素值,下标i,j分别指的是图像中x,y的下标位置,每执行一步需要更新NN1的权重,整个任务完成后需要求全部rs的和RS,fCE指的是计算两个数的交叉熵,NN2指的是判别网络,判别时将图像i2和图像i2′的像素值分别输入到判别网络中,再计算两个输出的交叉熵。
4.按照权利要求2所述的基于对抗生成网络的自主移动机器人自监督学习及导航方法,所述控制信号action包括角度、速度、加速度及力矩。
5.按照权利要求2所述的基于对抗生成网络的自主移动机器人自监督学习及导航方法,其特征在于:视频预测生成网络包括6层,
前3层为卷积长短期记忆网络层;
从第4层开始分支为2条支网络层:
其中一支网络层为3层反卷积长短期记忆网络层;
另一支网络层依次为2维的卷积层Conv2D、压平层Flatten、全连接层Dense;
判别网络包括5层,
前4层都是2维的卷积层Conv2D,第5层是全连接层。
6.按照权利要求5所述的基于对抗生成网络的自主移动机器人自监督学习及导航方法,其特征在于:
ConvLSTM、ConvLSTMT和Conv2D的卷积核大小都是2*2,步长都为2,都做补零操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东莞理工学院,未经东莞理工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110459188.6/1.html,转载请声明来源钻瓜专利网。





