[发明专利]一种多标签文本分类方法及系统有效
申请号: | 202110272724.1 | 申请日: | 2021-03-13 |
公开(公告)号: | CN113220874B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 解福;郑兴芳;徐传杰 | 申请(专利权)人: | 山东师范大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F40/126;G06F40/289;G06N3/0464;G06N3/0442;G06N3/0455 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 闫圣娟 |
地址: | 250014 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 标签 文本 分类 方法 系统 | ||
本公开提供了一种多标签文本分类方法及系统,所述方案结合了神经卷积网络和自注意力机制作为编码器,并且设计了一个新颖解码器来解码并生成标签序列,所提出方法不仅充分考虑了源文本中可解释的精细信息,而且还有效地利用了这些信息来生成标签序列。在对标签进行预测的时候可以有效的将全局信息与局部信息结合起来,提高标签预测的准确度,进而实现了多标签文本的精确分类。
技术领域
本公开属于计算机处理技术领域,尤其涉及一种多标签文本分类方法及系 统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在 先技术。
随着大数据时代的到来,尽管我们时刻警惕私人信息是否泄露,但是由此 带来了生活的便利。广告推荐、搜索优化、文本总结等时时刻刻在方便你我。 而在自然语言处理中,多标签文本分类是一项非常复杂的工作。因为一些标签 经常会出现高度的关联性,致使分类更加艰难。比较典型的例子就是当我们看 到一篇财经新闻的时候,你可能会不断的会看到“基金”、“股票”、“债券”等 看起来相似的术语,这常常让人感到难以分辨。
在此基础上,人们尝试了许多可行的办法,并且取得了一定的成果。但是 发明人发现,在一些较早的方法里,他们往往存在一些缺点:可支持的数据集 较小、速度慢、算法复杂等等。而随着现代计算机技术的不断发展,神经网络 的出现为我们利用卷积神经网络模型解决问题提供了更加新颖的方式。但是这 一些方法没能完整的考虑到我们从源文件来获取标签依存关系和解释语义,并 且对于数量级较小的数据集不够友好。
发明内容
本公开为了解决上述问题,提供了一种多标签文本分类方法及系统,所述 方案,通过卷积神经网络和自注意力机制获取文本序列的局部和全局特征,有 效提高了文本序列标签的预测精度,进而提高了多标签文本分类的准确性。
根据本公开实施例的第一个方面,提供了一种多标签文本分类方法,包括:
根据文本内容预先确定标签空间;
对待分类的文本进行分词,获得文本序列;
在所述文本序列中嵌入位置矢量,并将其输入到训练好的多标签文本分类 模型中,输出所述文本序列的标签预测;
其中,所述多标签文本分类模型包括编码器和解码器,所述文本序列通过 编码器中的卷积块和自注意力机制分别获取文本序列的局部信息和全局信息, 组合后的局部信息和全局信息通过解码器进行解码获得标签预测结果。
进一步的,所述编码器中的卷积块采用一维卷积和非线性激活函数,其中, 所述一维卷积的卷积核宽度与文本序列的单词数量相同,同时为了能够得到更 高级别的局部信息,选择使用堆叠网络,并将剩余连接添加到块输出中;所述 非线性激活函数采用门控线性单元,通过所述门控线性单元实现卷积输出的门 控机制。
进一步的,考虑到标签之间的相关性,将前一时刻所预测的标签结果使用 到对当前标签的预测中去,所述解码器采用长短时记忆神经网络作为基本循环 单元对序列进行解码从而获得最终的预测标签。
根据本公开实施例的第二个方面,提供了一种多标签文本分类系统,包括:
标签空间获取单元,其用于根据文本内容预先确定标签空间;
文本序列获取单元,其用于对待分类的文本进行分词,获得文本序列;
标签预测单元,其用于在所述文本序列中嵌入位置矢量,并将其输入到训 练好的多标签文本分类模型中,输出所述文本序列的标签预测;
其中,所述多标签文本分类模型包括编码器和解码器,所述文本序列通过 编码器中的卷积块和自注意力机制分别获取文本序列的局部信息和全局信息, 组合后的局部信息和全局信息通过解码器进行解码获得标签预测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东师范大学,未经山东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110272724.1/2.html,转载请声明来源钻瓜专利网。