[发明专利]一种基于时序主题模型的自然语言生成方法有效
| 申请号: | 201910557271.X | 申请日: | 2019-06-25 |
| 公开(公告)号: | CN110457714B | 公开(公告)日: | 2021-04-06 |
| 发明(设计)人: | 陈渤;鲁瑞颖;郭丹丹 | 申请(专利权)人: | 西安电子科技大学 |
| 主分类号: | G06F40/40 | 分类号: | G06F40/40;G06F40/30;G06N3/04;G06N3/08 |
| 代理公司: | 西安嘉思特知识产权代理事务所(普通合伙) 61230 | 代理人: | 张捷 |
| 地址: | 710071*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 时序 主题 模型 自然语言 生成 方法 | ||
1.一种基于时序主题模型的自然语言生成方法,其特征在于,包括:
S1:获得文档中的每个句子的上下文词袋向量;
所述S1包括:
将包括J个句子的文档D={s1,s2,...,sj,...,sJ}除去当前第{1,2,...,J}个句子后的文字分别表示为词袋向量d1,d2,...,dj,...,dJ,其中,dj表示除去第j个句子sj后的上下文词袋向量;
S2:根据所述上下文词袋向量,利用时序主题模型生成所述文档中每个句子的主题分布向量;
所述S2包括:
将所述词袋向量d1,d2,...,dj,...,dJ依次输入L层的循环伽马置信网络模型中,分别得到对应的主题分布θ1,θ2,...,θj,...,θJ,其中,θj={θj(1),θj(2),...,θj(L)},j∈1:J表示将所述词袋向量dj输入所述循环伽马置信网络模型中获得的L层隐变量;
S3:将每个句子的每个词和相应的主题分布向量输入到时序语言模型中,得到每个词相应的各层隐变量;
S4:将每个词的所述各层隐变量拼接在一起,通过归一化指数函数预测当前句子中的下一个单词;
S5:利用随机梯度下降法对所述时序语言模型以及时序主题模型中的编码器参数进行更新;
S6:利用自适应随机梯度马尔可夫链蒙特卡洛采样方法对所述时序主题模型中解码器的参数进行采样更新。
2.根据权利要求1所述的基于时序主题模型的自然语言生成方法,其特征在于,所述循环伽马置信网络模型由堆叠的循环概率神经网络构成,用于对时序主题模型的各层神经元进行概率建模,所述循环伽马置信网络模型表示为:
其中,表示第l层的隐变量,表示第l层的隐变量之间的转移矩阵,Φ(l)表示所述循环伽马置信网络模型中第l层的字典参数,Gam表示伽马分布函数,τ0表示伽马分布的尺度参数,aj(l)、kj(l)、λj(l)表示韦布尔分布中的参数,g(l)表示基本的循环神经网络传递单元,f(l)表示基本的映射函数,用于将sj(l-1)与sj-1(l)进行整合,sj(1)=dj表示网络的第一层输入为句子的上下文词袋向量,εj(l)表示一个从标准正态分布中采样得到的随机数,其中,由dj输入得到{θj(1),θj(2),...,θj(L)}的过程称为编码器,由{θj(1),θj(2),...,θj(L)}重构得到dj的过程称为解码器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910557271.X/1.html,转载请声明来源钻瓜专利网。





