[发明专利]基于Star-Transformer的口语理解方法、系统及设备有效
申请号: | 202010804529.4 | 申请日: | 2020-08-13 |
公开(公告)号: | CN111951803B | 公开(公告)日: | 2022-12-16 |
发明(设计)人: | 刘美玲;马凯欣;于洋 | 申请(专利权)人: | 东北林业大学 |
主分类号: | G10L15/22 | 分类号: | G10L15/22;G10L15/26;G10L15/18;G06F16/33 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 时起磊 |
地址: | 150040 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 star transformer 口语 理解 方法 系统 设备 | ||
1.基于Star-Transformer的口语理解方法,其特征在于,所述方法首先利用Star-Transformer对口语语音信息对应文本序列的特征矩阵进行信息提取;
利用Star-Transformer对口语语音信息对应文本序列的特征矩阵进行信息提取的过程包括以下步骤:
口语语音信息对应文本序列的特征矩阵记为H=[h1,...,hn],其中hj表示第j个字的特征,n为文本长度;对于查询向量q∈R1×d,注意力公式如下:
其中,K=HWk,V=HWv,Wk和Wv为可学习参数;查询向量q为1×d的实数矩阵,d表示查询向量q的列数;
由注意力公式得到多头注意力公式:
MultiHead(q,H)=concat(head1,...,headh)Wo (2)
headi=Attention(qWiQ,HWiK,HWiv),i∈[1,h] (3)
其中,h为头的个数,WiQ,WiK,Wiv,Wo为可学习参数;concat(·)为concat函数;
对于第t∈[1,T]层,定义向量st表示中继结点,矩阵Ht表示长度为n的所有卫星结点,矩阵E=[e1,...,en]表示序列长度为n的字嵌入,其中ek表示第k个字的嵌入;将卫星结点初始化为H0=E,中继结点初始化为st=average(E),average表示对矩阵取平均;T表示最后一层;
对于Star-Transformer更新第t层时,要分为两个阶段:(1)更新卫星结点H,(2)更新中继结点s;
在第一阶段,每一个卫星结点都将与它相邻的卫星结点、中继结点和它自己的嵌入进行拼接;随后使用多头注意力机制进行更新;最后进行归一化操作得到新的卫星结点;
其中,为临时矩阵;所有带上角标的参数均表示对应层的参数,表示第t层的hi,st-1为第t-1层的中继结点;ReLU(·)为ReLU激活函数,LayerNorm(·)为归一化函数;
在第二阶段,中继结点与已经更新过的所有卫星结点进行拼接:
st=LayerNorm(RELU(MultiHead(st-1,[st-1;Ht])));
Star-Transformer模型处理结束后完成信息提取;
然后使用双向门控循环单元对Star-Transformer提取的全局信息和局部信息进行整合,最后将插槽预测的概率最大的意图作为输出结果;
所述使用双向门控循环单元对Star-Transformer提取的全局信息和局部信息进行整合的过程包括以下步骤:
使用汇集了全局信息的最后一层的中继结点sT作为双向门控循环单元初始隐藏结点,将最后一层中所有的卫星结点HT作为迭代信息被送到双向门控循环单元中;
其中,分别表示HT的正向迭代和反向迭代;分别为每个正向GRU输出的整合矩阵和最后一个结点的隐藏结点,分别为每个反向GRU输出的整合矩阵和最后一个结点的隐藏结点;
最后,把sT、和进行拼接作为意图整合信息结点,和进行拼接作为插槽整合信息结点;
其中,intent和solt向量分别是意图和插槽预测的概率;
最终把预测概率最大的意图作为输出结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北林业大学,未经东北林业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010804529.4/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法