[发明专利]图像处理方法和装置在审
| 申请号: | 201910098146.7 | 申请日: | 2019-01-31 |
| 公开(公告)号: | CN109871791A | 公开(公告)日: | 2019-06-11 |
| 发明(设计)人: | 喻冬东;王长虎 | 申请(专利权)人: | 北京字节跳动网络技术有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
| 代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
| 地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 训练数据 目标训练样本 神经网络 样本 方法和装置 图像处理 预测数据 训练神经网络 申请 | ||
1.一种图像处理方法,包括:
若目标训练样本的训练数据不完整,则将所述目标训练样本的训练数据输入第一神经网络,得到所述目标训练样本缺少的训练数据,其中,完整的训练数据包括图像以及图像对应的标注信息,所述第一神经网络为图像处理网络或图像重建网络;
将所得到的缺少的训练数据输入第二神经网络,得到所述目标训练样本的训练数据的预测数据,其中,所述第二神经网络为图像处理网络和图像重建网络中的另一个;
基于所述目标训练样本的训练数据,以及所述预测数据,确定所述目标训练样本的训练数据的损失值,利用所述损失值,训练所述第一神经网络和所述第二神经网络中的至少一个。
2.根据权利要求1所述的方法,其中,所述第一神经网络为图像处理网络,第二神经网络为图像重建网络;
所述若目标训练样本的训练数据不完整,则将所述目标训练样本的训练数据输入第一神经网络,得到所述目标训练样本缺少的训练数据,包括:
若所述目标训练样本的训练数据为图像,将所述目标训练样本的图像输入所述图像处理网络,得到所述目标训练样本的图像对应的标注信息。
3.根据权利要求2所述的方法,其中,所述将所得到的缺少的训练数据输入第二神经网络,得到所述目标训练样本的训练数据的预测数据,包括:
将所得到的标注信息输入所述图像重建网络,得到所述图像重建网络预测的、所得到的标注信息所标注的图像。
4.根据权利要求1所述的方法,其中,所述第一神经网络为图像重建网络,所述第二神经网络为图像处理网络;
所述若目标训练样本的训练数据不完整,则将所述目标训练样本的训练数据输入第一神经网络,得到所述目标训练样本缺少的训练数据,包括:
若所述目标训练样本的训练数据为标注信息,将所述目标训练样本的标注信息输入所述图像重建网络,得到所述标注信息所标注的图像。
5.根据权利要求4所述的方法,其中,所述将所得到的缺少的训练数据输入第二神经网络,得到所述目标训练样本的训练数据的预测数据,包括:
将所述所标注的图像输入所述图像处理网络,得到所述图像处理网络预测的所述所标注的图像对应的标注信息。
6.一种图像处理装置,包括:
第一输入单元,被配置成若目标训练样本的训练数据不完整,则将所述目标训练样本的训练数据输入第一神经网络,得到所述目标训练样本缺少的训练数据,其中,完整的训练数据包括图像以及图像对应的标注信息,所述第一神经网络为图像处理网络或图像重建网络;
第二输入单元,被配置成将所得到的缺少的训练数据输入第二神经网络,得到所述目标训练样本的训练数据的预测数据,其中,所述第二神经网络为图像处理网络和图像重建网络中的另一个;
训练单元,被配置成基于所述目标训练样本的训练数据,以及所述预测数据,确定所述目标训练样本的训练数据的损失值,利用所述损失值,训练所述第一神经网络和所述第二神经网络中的至少一个。
7.根据权利要求6所述的装置,其中,所述第一神经网络为图像处理网络,第二神经网络为图像重建网络;
所述第一输入单元,进一步被配置成:
若所述目标训练样本的训练数据为图像,将所述目标训练样本的图像输入所述图像处理网络,得到所述目标训练样本的图像对应的标注信息。
8.根据权利要求7所述的装置,其中,所述第二输入单元,进一步被配置成:
将所得到的标注信息输入所述图像重建网络,得到所述图像重建网络预测的、所得到的标注信息所标注的图像。
9.根据权利要求6所述的装置,其中,所述第一神经网络为图像重建网络,所述第二神经网络为图像处理网络;
所述第一输入单元,进一步被配置成:
若所述目标训练样本的训练数据为标注信息,将所述目标训练样本的标注信息输入所述图像重建网络,得到所述标注信息所标注的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字节跳动网络技术有限公司,未经北京字节跳动网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910098146.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于混合神经网络模型的视频去色方法
- 下一篇:行人检测方法和装置





