[发明专利]一种基于深度网络的自然语言情感分析方法有效

专利信息
申请号: 201811409537.8 申请日: 2018-11-23
公开(公告)号: CN109543039B 公开(公告)日: 2022-04-08
发明(设计)人: 杨猛;林佩勤 申请(专利权)人: 中山大学
主分类号: G06F16/35 分类号: G06F16/35;G06N3/04
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510260 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 网络 自然语言 情感 分析 方法
【权利要求书】:

1.一种基于深度网络的自然语言情感分析方法,其特征在于,包括嵌入模块、记忆序列构建模块、语义依存掩码注意力模块、上下文矩情感学习模块以及输出模块;

所述的嵌入模块使用一个通过无监督方法预训练得到的嵌入查找表,将语料中的词转换为对应的词向量;对于不存在于查找表中的非词典词,采用了高斯分布随机初始化将其随机转换成一个低维度的词嵌入;

所述的记忆序列构建模块通过双向长短时记忆单元将嵌入模块得到的嵌入序列转换为记忆序列,转换后的记忆序列可表示其中n为序列长度;

所述的语义依存掩码注意力模块根据句子的依存句法树,抽取语义依存信息,然后根据语义依存信息来动态选择记忆序列的不同部分,引导注意力机制的执行,得到对象词情感分类损失;同时所述的上下文矩情感学习模块通过对上下文矩回归任务的协同学习来构建上下文记忆序列,并计算上下文矩回归损失;

所述的输出模块通过同时最小化对象词情感分类损失和上下文矩回归损失来进行训练,从而预测对象词的情感极性。

2.根据权利要求1所述的基于深度网络的自然语言情感分析方法,其特征在于,所述的语义依存 掩码注意力模块的工作流程包括如下步骤:

步骤1:在第l层掩码记忆序列中,每个记忆单元将根据语义依存信息进行掩码操作,即选择语义距离小于当前层数l的上下文词对应的记忆单元,具体公式如下:

其中dist(wi,wt)指当前对象词到上下文的语义距离,l为多层深度记忆网络的层数,l为正整数;

步骤2:在每一个计算层l生成的掩码记忆序列为通过掩码记忆序列,可以得到在第l层掩码记忆序列时,每个记忆单元的注意力分数为:

其中dAL表示注意力机制所用的权值维度,rl-1和va分别表示记忆单元、记忆网络上一层的输出以及对象词表示;

步骤3:接着通过softmax函数归一化得到每个记忆单元的分值从而得到注意力机制层的最终输出:

其中是分值,表示对应的记忆单元

步骤4:加入一个转换门和一个携带门,分别控制上一层输出rl-1有多少被注意力进制转换后带入下一层,又有多少不通过转换,直接被携带到下一层,从而得到本层输出rl;通过深度记忆网络的多层注意力机制非线性迭代得到针对于特定对象词的句子表示,从而得到对象词的情感分类结果,利用这个结果,进行训练步骤得到对象词情感分类损失。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201811409537.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top