[发明专利]使用语言模型对序列到序列模型进行冷聚变有效
| 申请号: | 201810460442.2 | 申请日: | 2018-05-15 |
| 公开(公告)号: | CN108960277B | 公开(公告)日: | 2023-01-24 |
| 发明(设计)人: | 安鲁普·西瑞兰姆;俊熙雄;桑吉夫·萨西斯;亚当·科茨 | 申请(专利权)人: | 百度(美国)有限责任公司 |
| 主分类号: | G06F18/214 | 分类号: | G06F18/214;G06F40/279;G06N3/0464;G06N3/0455;G06N3/048;G06N3/047;G06N3/0442;G06N3/084;G06N3/088;G10L15/06 |
| 代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 马晓亚;王艳春 |
| 地址: | 美国加利*** | 国省代码: | 暂无信息 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 使用 语言 模型 序列 进行 聚变 | ||
本文中描述了用于使用具有注意力的序列到序列(Seq2Seq)模型生成自然语言句子的系统和方法。Seq2Seq模型可以在诸如机器翻译、图像字幕生成和语音识别的应用中实施。通过利用未标注的数据(通常是以语言模型的形式),性能得到了进一步的改进。本文中公开了在训练期间利用预训练的语言模型的“冷聚变”架构实施方式。具有冷聚变的Seq2Seq模型实施方式能够更好的利用享有更快收敛的语言信息,更好的泛化,并且虽然使用较少标注的训练数据,却几乎完全转移到新的域。
技术领域
本公开总体涉及用于计算机学习的系统和方法,该系统和方法可以提供改进的计算机性能、特征和使用。
背景技术
序列到序列(Seq2Seq)模型已在许多序列标注问题上使用,包括自动语音识别、神经机器翻译、会话建模等。这些模型可以将来自输入域的序列(例如,音频)转换为标注域中的序列(例如。与音频相对应的文本)。
由于语言模型不需要标注的数据,因此它们可以在数十亿甚至数万亿的表征上进行训练,并学习比在标注的语料库上训练的任何Seq2Seq模型更好的标注空间模型。因此,Seq2Seq模型通常与语言模型(LM)结合以提高泛化。
将Seq2Seq模型与LM整合的算法可以称为“聚变(fusion)”算法。整合语言模型的标准方式,其可称作为“浅聚变”,是将特定于任务的Seq2Seq模型的得分与辅助语言模型的得分线性组合,以指导束搜索。该方法的改进称之为“深度聚变”,即在两个模型独立训练之后,学习将Seq2Seq解码器的隐藏状态与具有门控机制的神经语言模型进行聚变。虽然已经证明这些模型提高了基线上的性能,但是它们具有若干限制。
例如,虽然已经证明深度聚变方法提高了基线上的性能,但是它具有若干限制。首先,由于Seq2Seq模型被训练以在没有语言模型的情况下输出完整的标注序列,它的解码器从训练标注中学习隐式语言模型,占用了解码器容量的显著部分来学习冗余信息。其次,融入到Seq2Seq解码器中的剩余语言模型偏向于平行语料库的训练标注。例如,如果完全在法律文件上训练的Seq2Seq模型稍后与医学语言模型进行聚变,则解码器仍然具有固有倾向以遵循在法律文本中发现的语言结构。因此,为了适应新的域,最低程度地,深度聚变必须首先学习斟酌语言的隐性知识。
因此,需要的是克服这些限制以更好地利用语言信息,提供更快的收敛和更好的泛化,并更好地允许转移到新的域的系统和方法。
发明内容
在本公开的一方面,提供了用于训练序列到序列模型的计算机实现的方法,所述方法包括:
使用一组训练数据对语言模型预训练;
基于输入序列获取所述序列到序列模型的隐藏状态;
将从预训练的语言模型获得的语言模型隐藏状态与从所述序列到序列模型获得的所述隐藏状态组合成组合隐藏状态;以及
使用从所述组合隐藏状态获得的输出来训练所述序列到序列模型。
在本公开的另一方面,提供了用于使用语言模型训练序列到序列模型的计算机实现的方法,所述方法包括:
在所述序列到序列模型的编码器处接收源域中的输入序列;
通过所述编码器生成所述输入序列的中间表示;
使用所述序列到序列模型的解码器内的至少一个递归层接收所述中间表示;
至少基于所述中间表示,通过所述至少一个递归层生成所述序列到序列模型的隐藏状态;
将所生成的隐藏状态与来自所述语言模型的语言模型隐藏状态组合成组合隐藏状态;以及
基于所述组合隐藏状态,通过所述解码器在目标域中生成分对数输出。
在本公开的再一方面,提供了用于训练序列到序列模型的计算机实现的方法,所述方法包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度(美国)有限责任公司,未经百度(美国)有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810460442.2/2.html,转载请声明来源钻瓜专利网。





