[发明专利]自适应步长梯度下降的方法、装置、设备及可读存储介质在审
申请号: | 202110579032.1 | 申请日: | 2021-05-26 |
公开(公告)号: | CN113283610A | 公开(公告)日: | 2021-08-20 |
发明(设计)人: | 宋美佳;刘孙发;宋炎龙;姜天灏 | 申请(专利权)人: | 三明学院 |
主分类号: | G06N20/00 | 分类号: | G06N20/00 |
代理公司: | 厦门智慧呈睿知识产权代理事务所(普通合伙) 35222 | 代理人: | 杨唯 |
地址: | 365000 福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自适应 步长 梯度 下降 方法 装置 设备 可读 存储 介质 | ||
本发明提供了一种自适应步长梯度下降的方法、装置、设备及可读存储介质,包括:获取优化模型中的假设函数,并生成所述假设函数的损失函数;运算所述损失函数,并获取当前时刻的损失函数值与上一时刻的损失函数值,并生成两者的比较结果;根据所述比较结果,调用调节函数对参数的学习率进行自适应调节,以重新运算损失函数。解决了学习率随迭代递减,导致梯度下降后期收敛慢或不收敛情况。
技术领域
本发明涉及机器学习领域,特别涉及一种自适应步长梯度下降的方法、装置、设备及可读存储介质。
背景技术
在现有技术中,机器学习本质是求解一个目标函数,并以此目标函数判断未来数据走向,优化算法是求解目标函数中参数的重要工具,广泛使用的优化算法当属梯度下降,因此,提升梯度下降收敛速度、解决梯度下降算法陷入局部最优解问题、减少梯度下降在最小值附近的震荡性,对机器学习、自然语言处理、图像处理等领域都有着有重要的理论意义和实际应用价值。
梯度下降其中一个优化方向是学习率的优化,目前已有的学习率优化算法采用递减方式,即学习率随迭代递减,导致梯度下降后期收敛慢或不收敛情况。
有鉴于此,提出本申请。
发明内容
本发明公开了一种自适应步长梯度下降的方法、装置、设备及可读存储介质,旨在解决学习率随迭代递减,导致梯度下降后期收敛慢或不收敛情况。
本发明第一实施例提供了一种自适应步长梯度下降的方法,包括:
获取优化模型中的假设函数,并生成所述假设函数的损失函数;
运算所述损失函数,并获取当前时刻的损失函数值与上一时刻的损失函数值,并生成两者的比较结果;
根据所述比较结果,调用调节函数对参数的学习率进行自适应调节,以重新运算损失函数。
优选地,所述假设函数的模型为:hθ(x1,x2,…,xn)=θ0+θ1x1+…θnxn;
其中,θi(i=0,1,2,…,n)为模型参数,xi(i=0,1,2,…,n)为每个样本的n个特征;
所述损失函数的模型为:
其中,hθ为模型预测值,yi为样本实际值。
优选地,所述根据所述比较结果,调用调节函数对参数的学习率进行自适应调节,以重新运算损失函数,具体为:
在根据所述比较结果判断到当前时刻的损失函数值大于上一时刻的损失函数值时,增加学习率,重新生成模型参数,并通过重新生成的模型参数运算当前时刻的损失函数。
优选地,还包括:在根据所述比较结果判断到当前时刻的损失函数值小于上一时刻的损失函数值时,减小学习率,重新生成模型参数,并通过重新生成的模型参数运算上一时刻的损失函数。
优选地,所述调节函数为tanh函数。
其中,所述tanh函数的模型为λ=λ(1+tanh(Jt-Jt+1))。
优选地,所述模型参数的表达式为:
θt+1=θt-λgt;
其中,θt表示所有参数在t时刻的状态,gt表示梯度,λ表示学习率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三明学院,未经三明学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110579032.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种多孔碳纳米材料及其制备方法
- 下一篇:一种3D打印混合挤出装置