[发明专利]一种神经网络的全局池化方法及众核系统在审
| 申请号: | 201910796532.3 | 申请日: | 2019-08-27 |
| 公开(公告)号: | CN112446458A | 公开(公告)日: | 2021-03-05 |
| 发明(设计)人: | 戚海涛;李涵 | 申请(专利权)人: | 北京灵汐科技有限公司 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063;G06N3/08 |
| 代理公司: | 北京麦宝利知识产权代理事务所(特殊普通合伙) 11733 | 代理人: | 赵艳红 |
| 地址: | 100080 北京市*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 神经网络 全局 方法 系统 | ||
本公开提供了一种神经网络的全局池化方法及众核系统,该方法包括:接收前一网络层依次输入的待处理数据的点数据;在每接收到一个点数据后,均基于当前接收到的所述点数据执行预设池化操作,直至所述待处理数据所有点数据池化完成。基于本公开提供的方案可以在众核系统行流水操作下运用点操作代替图操作,即每接收到一个点数据之后,均会对其处理一次得到一个中间池化结果,直到最后得到待处理数据的最终池化结果,从而减少计算延时。
技术领域
本公开涉及神经网络技术领域,特别是涉及一种神经网络的全局池化方法及众核系统。
背景技术
随着人工智能技术的不断发展,深度学习的应用也越来越广泛。卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。传统的CNN最后一层都是全连接层,参数个数非常之多,容易引起过拟合(如Alexnet),一个CNN模型,大部分的参数都被全连接层给占用了,影响处理速度,增加处理时间。因此,提出采用了全局均值池化替代全连接层的方案。然而,相关技术中,全局池化的计算延迟较长。
发明内容
鉴于上述问题,本公开提供了一种克服上述问题或至少部分地解决了上述问题的一种神经网络的全局池化方法及众核系统。
根据本公开的一个方面,提供了一种神经网络的全局池化方法,应用于众核系统,所述方法包括:
接收前一网络层依次输入的待处理数据的点数据;
在每接收到一个点数据后,均基于当前接收到的所述点数据执行预设池化操作,直至所述待处理数据所有点数据池化完成。
可选地,所述在每接收到一个点数据后,均基于当前接收到的所述点数据执行预设池化操作,直至所述待处理数据所有点数据池化完成,包括:
接收所述前一网络层输入的第一个点数据,基于所述第一个点数据进行预设池化操作,得到第一池化结果;
继续接收所述待处理数据的点数据,并在每接收到一个点数据后均执行所述预设池化操作,直至所述待处理数据所有点数据池化完成,得到最终池化结果。
可选地,所述继续接收所述待处理数据的点数据,并在每接收到一个点数据后均执行所述预设池化操作,直至所述待处理数据所有点数据池化完成,得到最终池化结果,包括:
接收所述待处理数据的第n个点数据,基于第n-1个点数据的池化结果对所述第n个点数据进行预设池化操作,得到第n池化结果;
接收待处理数据的第N个点数据,基于第N-1个点数据的池化结果对所述第N个点数据进行预设池化操作,得到第N池化结果;
其中,所述第N池化结果为所述待处理数据的最终池化结果;
所述N表示所述待处理数据的点个数,1<n<N。
可选地,所述预设池化操作包括:平均池化或最大值池化。
可选地,所述众核系统的存储空间包括第一存储空间和第二存储空间,
当所述预设池化操作为平均池化操作时,所述在每接收到一个点数据后,均基于当前接收到的所述点数据执行预设池化操作,直至所述待处理数据所有点数据池化完成,包括:
接收第一个点数据并存入所述第一存储空间,作为数据A1;将所述第二存储空间的数据初始化为0,并在所述第二存储空间中存放数据B1=A1*(1/N);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京灵汐科技有限公司,未经北京灵汐科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910796532.3/2.html,转载请声明来源钻瓜专利网。
- 上一篇:防锁死的棘轮自锁机构
- 下一篇:一种医用不干胶热敏生产线





