[发明专利]使用语言模型对序列到序列模型进行冷聚变有效
| 申请号: | 201810460442.2 | 申请日: | 2018-05-15 |
| 公开(公告)号: | CN108960277B | 公开(公告)日: | 2023-01-24 |
| 发明(设计)人: | 安鲁普·西瑞兰姆;俊熙雄;桑吉夫·萨西斯;亚当·科茨 | 申请(专利权)人: | 百度(美国)有限责任公司 |
| 主分类号: | G06F18/214 | 分类号: | G06F18/214;G06F40/279;G06N3/0464;G06N3/0455;G06N3/048;G06N3/047;G06N3/0442;G06N3/084;G06N3/088;G10L15/06 |
| 代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 马晓亚;王艳春 |
| 地址: | 美国加利*** | 国省代码: | 暂无信息 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本文中描述了用于使用具有注意力的序列到序列(Seq2Seq)模型生成自然语言句子的系统和方法。Seq2Seq模型可以在诸如机器翻译、图像字幕生成和语音识别的应用中实施。通过利用未标注的数据(通常是以语言模型的形式),性能得到了进一步的改进。本文中公开了在训练期间利用预训练的语言模型的“冷聚变”架构实施方式。具有冷聚变的Seq2Seq模型实施方式能够更好的利用享有更快收敛的语言信息,更好的泛化,并且虽然使用较少标注的训练数据,却几乎完全转移到新的域。 | ||
| 搜索关键词: | 使用 语言 模型 序列 进行 聚变 | ||
【主权项】:
1.用于训练序列到序列模型的计算机实现的方法,所述方法包括:使用一组训练数据对语言模型预训练;基于输入序列获取所述序列到序列模型的隐藏状态;将从预训练的语言模型获得的语言模型隐藏状态与从所述序列到序列模型获得的所述隐藏状态组合成组合隐藏状态;以及使用从所述组合隐藏状态获得的输出来训练所述序列到序列模型。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度(美国)有限责任公司,未经百度(美国)有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810460442.2/,转载请声明来源钻瓜专利网。





