[发明专利]基于局部感知递归神经网络的字符级语言模型预测方法在审
申请号: | 201810398231.0 | 申请日: | 2018-04-28 |
公开(公告)号: | CN108629401A | 公开(公告)日: | 2018-10-09 |
发明(设计)人: | 刘惠义;王刚;陶颖 | 申请(专利权)人: | 河海大学 |
主分类号: | G06N3/02 | 分类号: | G06N3/02;G06N3/08 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林 |
地址: | 211106 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 递归神经网络 语言模型 感知 动量 自适应学习 层次组合 反向传播 方法使用 快速收敛 三层网络 数据序列 随机梯度 信息综合 优化训练 语义特征 测试集 再使用 预测 算法 文本 优化 监督 学习 | ||
1.一种基于局部感知递归神经网络的字符级语言模型预测方法,其特征在于,包括以下步骤:
步骤A,数据预处理,将PTB数据分为训练、验证和测试三种数据集,对所述三种数据集包含的所有字符按ASCII码进行排序,再将所述数据集的字符向前错位1步位置,按索引表示生成目标集;
步骤B,神经网络构建,所述局部感知递归神经网络包括依次非线性连接的a隐藏层、b隐藏层及h隐藏层;所述局部感知递归神经网络后面依次连接神经元数量为102的全连接层、ReLU层、神经元数量为102的全连接层、ReLU层、神经元数量为51的全连接层以及SoftMax回归层;
步骤C,神经网络训练,首先使用adadelta优化训练至测试集BPC低于1.45,再使用学习速率0.0001、动量为0.9的SGD优化方法训练,如果训练时在测试集上的BPC值连续两次不再降低,则学习速率减半;
通过训练数据的前向传播计算每个节点的值,通过与目标期望值的比较,计算出损失函数,然后进行误差的反向传播,由输出层开始逐层计算各层神经元的输出误差,使用所述步骤C中的方法训练神经网络,得到最终模型训练结果,根据误差梯度下降法来调节各层的权值,使修改后的网络的最终输出接近期望值。
2.根据权利要求1所述的一种基于局部感知递归神经网络的字符级语言模型预测方法,其特征在于,步骤A中所述按索引表示的方法为通过OneHot层将数据用51维的字符向量表示,所述OneHot层与局部感知递归神经网络的前端通过神经元数量为51的全连接层连接。
3.根据权利要求1所述的一种基于局部感知递归神经网络的字符级语言模型预测方法,其特征在于,步骤B中所述局部感知递归神经网络通过以下公式构建:
at=Tanh(Wa[xt,at-1,bt-1]+ba),
f1t=Sigmoid(Wf1[at,bt-1]+bf1),
i1t=Sigmoid(Wi1[at,bt-1]+bi1),
bt=i1t⊙Wbaat+f1t⊙Wbbbt-1+bb,
f2t=Sigmoid(Wf2[xt,bt,ht-1]+bf2),
i2t=Sigmoid(Wi2[xt,bt,ht-1]+bi2),
ht=f2t⊙Whhht-1+i2t⊙Tanh(Wh[xt,bt]+bh)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810398231.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于Levy搜索的混沌人工蜂群算法
- 下一篇:用于图像处理的方法和装置