[发明专利]一种多代理强化学习合作任务下的奖励函数建模方法在审

专利信息
申请号: 202011009883.4 申请日: 2020-09-23
公开(公告)号: CN112084721A 公开(公告)日: 2020-12-15
发明(设计)人: 谭哲越;尹建伟;尚永衡;张鹿鸣;李莹;邓水光 申请(专利权)人: 浙江大学
主分类号: G06F30/27 分类号: G06F30/27;G06F17/18
代理公司: 杭州求是专利事务所有限公司 33200 代理人: 林松海
地址: 310058 浙江*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 代理 强化 学习 合作 任务 奖励 函数 建模 方法
【权利要求书】:

1.一种多代理强化学习合作任务下的奖励函数建模方法,其特征在于,包括:

每个代理独立观测环境状态,输入各自的价值网络,得到各候选动作的价值估计,选择拥有最大价值估计的动作作为当前动作决策;

在模拟环境执行各代理的动作,得到每个代理各自的环境反馈奖励;

将各代理之间的交互建模为一张无向图,作为全局奖励信息的特征描述;

使用此图计算分别对每个代理计算全局奖励估计值;对每个代理各自的估计值进行加权求和计算全局奖励;

使用计算得到的全局奖励计算价值函数的目标值,计算时序差分误差,为训练各代理的价值网络提供梯度信息;

其中,建模出的无向图能够对多个代理与环境交互后的结果进行整合,同时能够起到对各代理进行可信度赋值的效果,给训练算法提供更加精准的奖励描述。

2.如权利要求1所述的方法,其特征在于,

所述的无向图是通过设置各代理为图中节点,以各代理之间的距离作为边的权重进行构造;同时,设置超参数对代理观测的最大距离加以限制,仅在指定范围内的其他代理才会和当前代理添加有权边;根据具体场景和问题,设置此超参数等价于忽略范围外的代理的影响,从而减轻具体实施时的计算压力。

3.如权利要求1所述方法,其特征在于,

所述的全局奖励计算具体为:以各代理为中心,对其他代理计算对应的奖励权重,以跳数为度量指标,距离越远的代理权重越小,使用所计算得到的权重对其他代理的环境反馈进行加权求和,得到当前代理的全局奖励估计;对所有代理的全局奖励估计进行加权求和,作为训练用全局奖励估计。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011009883.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top