[发明专利]一种边缘数据服务方法在审

专利信息
申请号: 202211018585.0 申请日: 2022-08-24
公开(公告)号: CN115378963A 公开(公告)日: 2022-11-22
发明(设计)人: 张普宁;孙美玉;李学芳;吴大鹏;杨志刚;王汝言 申请(专利权)人: 重庆邮电大学
主分类号: H04L67/1097 分类号: H04L67/1097;H04L67/568
代理公司: 北京同恒源知识产权代理有限公司 11275 代理人: 方钟苑
地址: 400065 *** 国省代码: 重庆;50
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 边缘 数据 服务 方法
【权利要求书】:

1.一种边缘数据服务方法,其特征在于,该方法具体包括以下步骤:

S1:数据收集:物联网感知层中的感知设备周期性观测对应实体的状态数据,并将实体相关信息上传至上层边缘服务器中,其中IDi,qi,typei分别为实体i的唯一标识符、状态数据、生成时间戳、生命周期和类型;

S2:状态感知:对于实体缓存在边缘服务器或保留在本地终端两种缓存情况,边缘服务器对不同缓存状态下实体状态数据的新鲜度损失和通信能耗做出感知计算,并形成系统平均搜索成本ASC;定义最小化平均搜索成本为目标函数;

S3:边缘推理:边缘服务器采用DQN求解目标函数,并获得使平均搜索成本最小时的实体缓存决策向量其中ai=1表示实体i可以缓存在边缘服务器上,否则,保留在本地;N表示实体总数量;

S4:边缘缓存:边缘服务器缓存最优缓存决策向量中的实体集合,有规律的设置时间戳对实体数据和通信能耗持续感知,并继续进行边缘推理,不断寻找最优的缓存实体集合,实现动态缓存更新;

S5:发起搜索:用户通过所持客户端设备向边缘服务器发起对实体状态数据的搜索请求;

S6:搜索响应:边缘服务器判断用户所需实体状态数据的缓存位置,如果所需实体状态数据缓存在边缘服务器,则直接将实体状态数据返回至用户;如果实体状态数据未缓存在边缘服务器,则与本地感知设备通信,由感知设备采集实体状态数据并上传至边缘服务器,边缘服务器再将结果反馈给用户。

2.根据权利要求1所述的边缘数据服务方法,其特征在于,步骤S2中,边缘服务器在做缓存决策时对实体状态数据的新鲜度损失和通信能耗进行加权求和,将其定义为给用户提供实体搜索服务时需要付出的平均搜索成本ASC,定义最小化平均搜索成本为目标函数,表达式为:

λ∈[0,1]

ai∈{0,1}

其中,λ为权重系数,N为实体总数量,C为边缘服务器缓存容量,s(qi)表示数据大小;ai=1表示实体状态数据缓存在边缘服务器中;ai=0表示实体状态数据保留在本地终端,或缓存在边缘服务器中的实体状态数据年龄已经超过生命周期。

3.根据权利要求2所述的边缘数据服务方法,其特征在于,步骤S2中,边缘服务器计算不同缓存状态下实体状态数据的新鲜度损失计算公式为:

其中,表示边缘服务器感知实体状态数据qi的新鲜度,计算公式为t为边缘服务器感知数据新鲜度的时刻。

4.根据权利要求3所述的边缘数据服务方法,其特征在于,步骤S2中,边缘服务器计算不同缓存状态下实体状态数据的通信能耗计算公式为:

其中,elδl(qi)表示边缘服务器向用户反馈搜索结果的通信能耗,esδs(qi)表示边缘服务器与感知设备的通信能耗,esens(qi)表示感知设备采集实体状态数据的感知能耗,eawa表示感知设备从休眠状态转换为活跃状态的能量消耗,el表示单位时间内边缘服务器的平均能量消耗,δl(qi)表示边缘服务器向用户反馈搜索结果的传输时延,es表示单位时间内感知设备的平均能量消耗,δs(qi)表示感知设备将实体状态数据上传至边缘服务器的传输时延,esen表示感知设备感知1bit数据所消耗的能量。

5.根据权利要求4所述的边缘数据服务方法,其特征在于,步骤S3具体包括以下步骤:

S31:智能体:在求解最优缓存决策向量时,智能体定义为每个可能出现的缓存决策向量;

S32:状态:包括实体状态数据、生成时间戳、生命周期、数据大小及通信能耗,si为实体i的状态空间,S为状态空间集合;

S33:动作:缓存决策向量作为多智能体的行动集合,智能体根据状态执行一个动作选择缓存该实体或者不缓存该实体;

S34:奖励函数:奖励值r为采取不同动作下的平均搜索成本的负数值:r=-ASC;奖励函数q'(si,ai)更新过程为采取某个动作集合后将会获得的奖励r(si,ai)+γ·max q(si',ai')和现有奖励q(si,ai)的加权和,表达式为:

q'(si,ai)=(1-α)q(si,ai)+α|[r(si,ai)+γ·maxq(si',ai')]

其中,α∈[0,1]是学习率因子,γ∈[0,1]是折扣因子,maxq(si',ai')为下一时刻采取某个动作能够获得的最大奖赏,r(si,ai)为过去时刻的奖赏,

S35:DQN中每个智能体会选择一个策略π来最大化累计奖励;策略π是指智能体在当前状态时,映射到动作的概率分布;

累积折扣函数Vπ(si,ai)被用来表示在策略π时的期望回报:Vπ(si,ai)=∑ξr(si,ai),ξ为折损率;

DQN学习目标为寻找优化策略

S36:每个智能体都拥有一个DQN,通过不断迭代训练寻找找到即能够得到当前状态下的最优缓存集合

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211018585.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top