[发明专利]一种基于深度网络的自然语言情感分析方法有效

专利信息
申请号: 201811409537.8 申请日: 2018-11-23
公开(公告)号: CN109543039B 公开(公告)日: 2022-04-08
发明(设计)人: 杨猛;林佩勤 申请(专利权)人: 中山大学
主分类号: G06F16/35 分类号: G06F16/35;G06N3/04
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510260 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供的基于深度网络的自然语言情感分析方法,在记忆网络的基础上,语义依存信息引入来引导注意力机制的执行,包含了句子整体情感信息的上下文矩信息也被用来为当前分析对象词提供背景信息。整个模型包括嵌入模块、记忆序列构建模块、语义依存掩码注意力模块、上下文矩情感学习模块以及输出模块。在模型中,根据依存句法树得到的对象词和上下文的语义依存关系信息将引入到记忆网络中,使得每一个层的记忆序列都是动态生成的,从而引导记忆网络的多层模块中的注意力机制的执行。另外,为了引入句子的整体情感信息,即同一句子中所有对象词之间的关系信息,我们提出了一个基于上下文矩的学习任务,通过多任务学习来辅助特定对象词的情感分析。
搜索关键词: 一种 基于 深度 网络 自然语言 情感 分析 方法
【主权项】:
1.一种基于深度网络的自然语言情感分析方法,其特征在于,包括嵌入模块、记忆序列构建模块、语义依存掩码注意力模块、上下文矩情感学习模块以及输出模块;所述的嵌入模块使用一个通过无监督方法预训练得到的嵌入查找表,将语料中的词转换为对应的词向量;对于不存在于查找表中的非词典词,采用了高斯分布随机初始化将其随机转换成一个低维度的词嵌入;所述的记忆序列构建模块通过双向长短时记忆单元将嵌入模块得到的嵌入序列转换为记忆序列,转换后的记忆序列可表示其中n为序列长度;所述的语义依存掩码注意力模块根据句子的依存句法树,抽取语义依存信息,然后根据语义依存信息来动态选择记忆序列的不同部分,引导注意力机制的执行,得到对象词情感分类损失;同时所述的上下文矩情感学习模块通过对上下文矩回归任务的协同学习来构建上下文记忆序列,并计算上下文矩回归损失;所述的输出模块通过同时最小化对象词情感分类损失和上下文矩回归损失来进行训练,从而预测对象词的情感极性。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201811409537.8/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top