[发明专利]面向多任务的预训练语言模型自动压缩方法及平台有效
| 申请号: | 202011470331.3 | 申请日: | 2020-12-15 |
| 公开(公告)号: | CN112232511B | 公开(公告)日: | 2021-03-30 |
| 发明(设计)人: | 王宏升;胡胜健;傅家庆;杨非 | 申请(专利权)人: | 之江实验室 |
| 主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N5/04 |
| 代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 邱启旺 |
| 地址: | 310023 浙江省杭州市余*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种面向多任务的预训练语言模型自动压缩方法及平台。该方法设计一种结构生成器的元网络,基于Transformer层采样的知识蒸馏方法构建知识蒸馏编码向量,利用结构生成器生成与当前输入的编码向量对应的蒸馏结构模型;同时提出伯努利分布采样的方法训练结构生成器;每轮迭代时,利用伯努利分布采样的方式迁移各个编码器单元,组成对应的编码向量;通过改变输入结构生成器的编码向量和小批次的训练数据,联合训练结构生成器和对应的蒸馏结构,可以学得能够为不同蒸馏结构生成权重的结构生成器;同时在已训练好的元学习网络基础上,通过进化算法搜索最优压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。 | ||
| 搜索关键词: | 面向 任务 训练 语言 模型 自动 压缩 方法 平台 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202011470331.3/,转载请声明来源钻瓜专利网。





