[发明专利]用于神经网络的多任务学习的元学习在审
申请号: | 201880072862.1 | 申请日: | 2018-11-09 |
公开(公告)号: | CN111328400A | 公开(公告)日: | 2020-06-23 |
发明(设计)人: | A·拉比诺维奇;V·巴德里娜拉亚楠;S·拉金德兰;李镇宇 | 申请(专利权)人: | 奇跃公司 |
主分类号: | G06N3/02 | 分类号: | G06N3/02;G06N20/00 |
代理公司: | 北京市中咨律师事务所 11247 | 代理人: | 杨晓光;于静 |
地址: | 美国佛*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 神经网络 任务 学习 | ||
1.一种用于使用元学习来训练多任务神经网络的系统,所述系统包括:
非暂时性存储设备,其被配置为存储:
多任务神经网络,其被配置为确定与多个任务相关联的输出,所述多个任务中的每个任务与任务损失函数相关联,与多任务损失函数相关联的所述多任务神经网络包括用于所述多个任务中的每个任务的任务权重和所述任务损失函数的组合;
元网络,其被配置为输出与所述多个任务中的每个任务相关联的所述任务权重,与元网络损失函数相关联的所述元网络包括至少部分地基于所述多任务损失函数的预期损失;
与所述非暂时性存储设备通信的硬件处理器,所述硬件处理器被编程为:
访问与用于所述多个任务的多个参考任务输出相关联的训练数据;
减小或最小化所述元网络损失函数以确定与所述多个任务中的每个任务相关联的估计任务权重;
至少部分地基于所述估计任务权重,减小或最小化所述多任务损失函数;以及
输出训练的多任务神经网络。
2.根据权利要求1所述的系统,其中,所述多任务神经网络的所述任务与场景理解相关联。
3.根据权利要求2所述的系统,其中,所述任务包括语义分割、深度、或表面法线中的至少一项。
4.根据权利要求1所述的系统,其中,所述多任务损失函数包括用于所述多个任务中的所有任务的所述任务权重乘以所述任务损失函数的线性组合。
5.根据权利要求1所述的系统,其中,所述元网络包括长短期记忆(LSTM)模块。
6.根据权利要求1所述的系统,其中,所述元网络损失函数包括所述多任务损失函数在训练窗口的优化轨迹上的总和。
7.根据权利要求1所述的系统,其中,为了减小或最小化所述元网络损失函数,所述硬件处理器被编程为使用自适应矩估计来应用随时间反向传播。
8.根据权利要求1所述的系统,其中,为了减小或最小化所述多任务损失函数,所述硬件处理器被编程为应用随机梯度下降。
9.根据权利要求1所述的系统,其中,所述多任务神经网络包括卷积神经网络。
10.根据权利要求1所述的系统,其中,所述硬件处理器还被编程为:
在每个训练时间监测所述多任务损失函数和所述元网络损失函数的值;以及
确定用于联合训练所述多个任务的任务级别课程。
11.一种用于使用元学习和元网络训练子神经网络的方法,所述方法包括:
访问被配置为输出用于子神经网络的自适应权重的元网络;
至少部分地基于用于所述子神经网络的子损失函数来训练所述元网络,所述子损失函数至少部分地取决于所述自适应权重;
通过所述元网络输出更新的自适应权重;
使用所述更新的自适应权重来训练所述子神经网络;以及
输出训练的子网络。
12.根据权利要求11所述的方法,还包括:访问用于训练所述元网络和所述子网络的训练数据集。
13.根据权利要求12所述的方法,其中,所述元网络包括递归神经网络。
14.根据权利要求13所述的方法,其中,所述递归神经网络包括长短期记忆(LSTM)模块。
15.根据权利要求13所述的方法,其中,所述子神经网络包括多任务神经网络。
16.根据权利要求15所述的方法,其中,所述多任务神经网络包括多任务损失函数,所述多任务损失函数包括与各个任务相关联的所述自适应权重和任务损失函数的组合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于奇跃公司,未经奇跃公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880072862.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:部分供应的虚拟机的部署
- 下一篇:用于使角蛋白纤维再成型的方法