[发明专利]基于无池化卷积嵌入和注意分布神经网络的新闻分类方法有效
| 申请号: | 202011443363.4 | 申请日: | 2020-12-11 |
| 公开(公告)号: | CN112527959B | 公开(公告)日: | 2023-05-30 |
| 发明(设计)人: | 唐贤伦;郝博慧;彭德光;钟冰;闫振甫;王会明;张璞 | 申请(专利权)人: | 重庆邮电大学 |
| 主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/35;G06F40/216;G06F40/289;G06F40/30;G06F18/241;G06F18/2415;G06N3/0464;G06N3/048;G06N3/08 |
| 代理公司: | 重庆市恒信知识产权代理有限公司 50102 | 代理人: | 陈栋梁 |
| 地址: | 400065 重*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 无池化 卷积 嵌入 注意 分布 神经网络 新闻 分类 方法 | ||
1.一种基于无池化卷积嵌入和注意分布神经网络的新闻分类方法,其特征在于,包括以下步骤:
步骤1:搜集新闻文本数据集,对新闻文本进行规范化格式处理并分词,利用词嵌入获得新闻的特征向量,对于新闻标签,根据新闻类别和新闻数据对新闻进行随机切分,将语料分为训练集、测试集和验证集,训练集用于对新闻分类模型的训练,验证集用来验证模型是否合理,测试集用来测试模型分类的效果;
步骤2:将步骤1中语料中的训练集经过词嵌入得到的特征向量输入CNN卷积神经网络,取消CNN中的池化层;
步骤3:将步骤2中经词嵌入和无池化卷积过后的特征向量输入注意力机制,对文本中的特征向量进行权重的重新分配从而训练出新闻分类模型;
步骤4:将步骤1中的语料中的测试集的文本向量输入CNN,根据步骤3中已经训练好的模型进行新闻类别分类并计算出新闻分类的准确率;
所述步骤2将步骤1中的语料中的训练集的词向量x0,x1,x2,...,xn输入CNN,取消字符卷积网络的池化层,具体为:将经过分布式表示的词向量输入到一维卷积网络中,该网络包含输入层,卷积层,输出层,取消卷积神经网络的池化层以最大化保留文本特征,一维卷积计算得到离散函数和离散核函数的卷积之和:
其中τ(x)是离散核函数,输入的离散函数是δ(x),d是步长,b为偏差项,其中x表示词向量,n表示新闻词向量的数目;
所述b=k-d+1,是偏移常数,由一组内核函数τij(x)进行参数化,i=1,2,…,v,j=1,2,…,w,每个输入δi(x)或输出cj(y)都称为features,m和n代表输入和输出特征的大小,输出cj(y)是δi(x)和τij(x)的卷积之和;
所述步骤4将步骤1中的语料中的测试集的文本向量输入CNN,根据步骤3中已经训练好的模型进行新闻类别分类并计算出新闻分类的准确率,具体包括:
模型使用Leaky_ReLU激活函数,在ReLU的负半部分引入了Leaky值,因此称为Leaky_ReLU函数,与ReLU不同,如下公式,Leaky_ReLU为所有负值分配一个非零的斜率;
ag是固定的,g表示对应不同的路线;最后,通过Softmax分类器进行多分类以获得结果;
result=softmax(v) (10)
result是一个向量,其维数为类别数,每个维度的数量在[0,1]范围内,它表示文本落入某个类别的概率,输入句子的预测类别准确率为:
prediction=argmax(result) (11)。
2.根据权利要求1所述的一种基于无池化卷积嵌入和注意分布神经网络的新闻分类方法,其特征在于,所述步骤1:搜集新闻数据集,对于中文新闻,规范化数据集格式,格式为:“标签+‘\t’+新闻”形式,将分词后的新闻文本单词用作word embedding层的输入得到一组词的特征向量x0,x1,x2,...,xt,该特征向量,即为计算机可以识别的语言,对于文本类别标签,指定了输入语言的大小字母,并且每个字符都使用1-1024编码进行编码;然后,将字符序列向量的序列转换为固定长度l0,超过该长度l0的所有字符都将被忽略,并且小于l0的矢量将在后面填充0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011443363.4/1.html,转载请声明来源钻瓜专利网。





