[发明专利]一种深度学习模型的高效转换方法及装置有效
| 申请号: | 201710669779.X | 申请日: | 2017-08-07 |
| 公开(公告)号: | CN107480789B | 公开(公告)日: | 2020-12-29 |
| 发明(设计)人: | 杨敏;艾国;张韵东 | 申请(专利权)人: | 北京中星微电子有限公司 |
| 主分类号: | G06N7/04 | 分类号: | G06N7/04 |
| 代理公司: | 北京布瑞知识产权代理有限公司 11505 | 代理人: | 孟潭 |
| 地址: | 100191 北京市*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 深度 学习 模型 高效 转换 方法 装置 | ||
本发明实施例的深度学习模型的高效转换方法,用于解决深度学习模型开发效率和运算效率较低的技术问题。方法包括:根据通用深度学习框架建立与NPU模型对应的数据标准化框架;利用所述数据标准化框架将深度学习模型的参数转换为所述数据标准化框架的标准参数;将所述标准参数转换为NPU模型的参数。本发明针对各通用深度学习框架的参数结构为特定处理器建立统一的数据标准化框架,根据通用深度学习框架形成的深度学习模型的参数可以利用数据标准化框架统一的数据结构形成标准数据,使得处理器进行数据解析处理的过程与深度学习模型的结构相关性大大降低,使得处理器处理过程的开发与深度学习模型的开发可以有效分离。还包括相应的高效转换装置。
技术领域
本发明涉及深度学习框架的数据处理,特别涉及一种深度学习模型的高效转换方法及装置。
背景技术
在深度学习技术领域,通常利用如Caffe、TensorFlow和Torch等通用深度学习框架定义海量数据处理和分析的深度学习模型,深度学习模型的训练和数据分析需要大量的计算资源。由于不同的通用深度学习框架对数据信息的存储方式和解析方式存在较大差异,同时受限于处理器的硬件结构差异,导致深度学习模型数据处理和数据调度过程往往不能与处理器结构特点相适应,降低了处理器的运算效率。
例如在现有技术方案中,直接把深度学习模型转换成神经网络处理器(NPU)的数据处理模型时需要依靠相应的转换工具,转换工具的开发需要开发人员熟悉深度学习框架的同时还要非常熟悉神经网络处理器的硬件执行特点,设计难度非常大。不采用良好的转换工具直接在神经网络处理器上运行深度学习模型,深度学习模型的通用性会成为神经网络处理器的障碍,造成执行效率低下。
发明内容
有鉴于此,本发明实施例提供了一种深度学习模型的高效转换方法及装置,用于解决深度学习模型开发效率和运算效率较低的技术问题。
本发明的深度学习模型的高效转换方法,包括:
根据通用深度学习框架建立与NPU模型对应的数据标准化框架;
利用所述数据标准化框架将深度学习模型的参数转换为所述数据标准化框架的标准参数;
将所述标准参数转换为NPU模型的参数。
本发明的深度学习模型的高效转换装置,包括:
数据标准化框架生成模块,用于根据通用深度学习框架建立与NPU模型对应的数据标准化框架;
标准数据生成模块,用于利用所述数据标准化框架将深度学习模型的参数转换为所述数据标准化框架的标准参数;
数据转换模块,用于将所述标准数据转换为处理器数据。
本发明的深度学习模型的高效转换装置,包括存储介质,存储介质中包括:
数据标准化框架生成模块,用于根据通用深度学习框架建立与NPU模型对应的数据标准化框架;
标准数据生成模块,用于利用所述数据标准化框架将深度学习模型的参数转换为所述数据标准化框架的标准参数;
数据转换模块,用于将所述标准数据转换为处理器数据。
本发明的深度学习模型的高效转换方法及装置针对各通用深度学习框架的参数结构为NPU处理器模型建立统一的数据标准化框架,根据通用深度学习框架形成的深度学习模型的参数可以利用数据标准化框架统一的数据结构形成标准参数,使得NPU处理器进行数据解析处理的过程与深度学习模型的结构相关性大大降低,使得NPU处理器处理过程(如微代码编程)的开发与深度学习模型的开发可以有效分离,避免了转换工具带来的开发难度。标准参数的数据结构可以通过合理转换进一步优化形成与NPU处理器的数据结构更适配的NPU处理器模型的参数,实现NPU处理器处理过程的早期优化。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京中星微电子有限公司,未经北京中星微电子有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710669779.X/2.html,转载请声明来源钻瓜专利网。





