[发明专利]一种基于时序主题模型的自然语言生成方法有效

专利信息
申请号: 201910557271.X 申请日: 2019-06-25
公开(公告)号: CN110457714B 公开(公告)日: 2021-04-06
发明(设计)人: 陈渤;鲁瑞颖;郭丹丹 申请(专利权)人: 西安电子科技大学
主分类号: G06F40/40 分类号: G06F40/40;G06F40/30;G06N3/04;G06N3/08
代理公司: 西安嘉思特知识产权代理事务所(普通合伙) 61230 代理人: 张捷
地址: 710071*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 时序 主题 模型 自然语言 生成 方法
【权利要求书】:

1.一种基于时序主题模型的自然语言生成方法,其特征在于,包括:

S1:获得文档中的每个句子的上下文词袋向量;

所述S1包括:

将包括J个句子的文档D={s1,s2,...,sj,...,sJ}除去当前第{1,2,...,J}个句子后的文字分别表示为词袋向量d1,d2,...,dj,...,dJ,其中,dj表示除去第j个句子sj后的上下文词袋向量;

S2:根据所述上下文词袋向量,利用时序主题模型生成所述文档中每个句子的主题分布向量;

所述S2包括:

将所述词袋向量d1,d2,...,dj,...,dJ依次输入L层的循环伽马置信网络模型中,分别得到对应的主题分布θ12,...,θj,...,θJ,其中,θj={θj(1)j(2),...,θj(L)},j∈1:J表示将所述词袋向量dj输入所述循环伽马置信网络模型中获得的L层隐变量;

S3:将每个句子的每个词和相应的主题分布向量输入到时序语言模型中,得到每个词相应的各层隐变量;

S4:将每个词的所述各层隐变量拼接在一起,通过归一化指数函数预测当前句子中的下一个单词;

S5:利用随机梯度下降法对所述时序语言模型以及时序主题模型中的编码器参数进行更新;

S6:利用自适应随机梯度马尔可夫链蒙特卡洛采样方法对所述时序主题模型中解码器的参数进行采样更新。

2.根据权利要求1所述的基于时序主题模型的自然语言生成方法,其特征在于,所述循环伽马置信网络模型由堆叠的循环概率神经网络构成,用于对时序主题模型的各层神经元进行概率建模,所述循环伽马置信网络模型表示为:

其中,表示第l层的隐变量,表示第l层的隐变量之间的转移矩阵,Φ(l)表示所述循环伽马置信网络模型中第l层的字典参数,Gam表示伽马分布函数,τ0表示伽马分布的尺度参数,aj(l)、kj(l)、λj(l)表示韦布尔分布中的参数,g(l)表示基本的循环神经网络传递单元,f(l)表示基本的映射函数,用于将sj(l-1)与sj-1(l)进行整合,sj(1)=dj表示网络的第一层输入为句子的上下文词袋向量,εj(l)表示一个从标准正态分布中采样得到的随机数,其中,由dj输入得到{θj(1)j(2),...,θj(L)}的过程称为编码器,由{θj(1)j(2),...,θj(L)}重构得到dj的过程称为解码器。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910557271.X/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top