[发明专利]信息处理方法及装置、电子设备和存储介质在审
申请号: | 201910595656.5 | 申请日: | 2019-07-03 |
公开(公告)号: | CN110322006A | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 王若晖;谢东明 | 申请(专利权)人: | 深圳市商汤科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063;G06K9/62 |
代理公司: | 北京林达刘知识产权代理事务所(普通合伙) 11277 | 代理人: | 刘新宇 |
地址: | 518054 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 待处理信息 信息处理 存储介质 电子设备 输出信息 信息处理过程 卷积 预设 保证 | ||
本公开涉一种信息处理方法及装置、电子设备和存储介质,其中,该方法包括:获取待处理信息;基于所述待处理信息,经过至少一个处理块的卷积操作,得到所述处理块的输出信息;其中,所述处理块的数量小于或等于预设值;基于所述至少一个处理块中最后处理块的输出信息,确定所述待处理信息的处理结果。本公开实施例可以在保证处理结果准确性的前提下,减少信息处理过程的复杂程度,提高信息处理的效率。
技术领域
本公开涉及计算机技术领域,尤其涉及一种信息处理方法及装置、电子设备和存储介质。
背景技术
随着计算机技术的发展,越来越多的领域应用了机器学习。神经网络作为机器学习的核心技术,可以是一个并行、分布处理结构,并且可以处理多种信息,例如,处理音频信息、视频信息、图像信息等。
在机器学习中,神经网络的计算效率是机器学习的一项重要考虑问题。在常见的神经网络使用环境中,时间和硬件方面对于神经网络存在一定的限制。如何尽可能多的向用户展示神经网络的运行过程,提高神经网络的计算效率,这对传统的网络模型是一个巨大的挑战。
发明内容
有鉴于此,本公开提出了一种信息处理方案。
根据本公开的一方面,提供了一种信息处理方法,包括:
获取待处理信息;
基于所述待处理信息,经过至少一个处理块的卷积操作,得到所述处理块的输出信息;其中,所述处理块的数量小于或等于预设值;
基于所述至少一个处理块中最后处理块的输出信息,确定所述待处理信息的处理结果。
这样,可以节省计算资源,大大降低了处理结果的计算时间,有利于降低训练时间。
在一种可能的实现方式中,所述经过至少一个处理块的卷积操作,得到所述处理块的输出信息,包括:
获取当前处理块的输入信息;
利用所述当前处理块对当前处理块的输入信息进行至少一次卷积操作,得到所述当前处理块的输出信息。
这样,可以利用当前处理块对当前处理块的输入信息进行一次或多次的卷积操作,由当前处理块对当前处理块的输入信息进行特征提取。
在一种可能的实现方式中,所述获取当前处理块的输入信息,包括:
在当前处理块为第一个处理块的情况下,根据所述待处理信息得到当前处理块的输入信息。
这样,在当前处理块为第一个处理块的情况下,当前处理块的输入信息可以根据待处理信息获取。
在一种可能的实现方式中,所述获取当前处理块的输入信息,包括:
在当前处理块为第N个处理块的情况下,根据当前处理块的前一处理块的输出信息,得到当前处理块的输入信息,其中,N为大于1的正整数。
这样,在当前处理块为第N个处理块的情况下,当前处理块的输入信息可以根据前一处理块的输出信息获取。
在一种可能的实现方式中,所述利用所述当前处理块对当前处理块的输入信息进行至少一次卷积操作,得到所述当前处理块的输出信息,包括:
利用所述当前处理块对当前处理块的输入信息进行至少一次卷积操作,得到所述当前处理块的卷积结果;
将所述卷积结果与所述当前处理块的输入信息进行融合,得到所述当前处理块的输出信息。
这样,当前处理块的输入信息可以直接作用于当前处理块的输出,减少信息丢失。
在一种可能的实现方式中,所述将所述卷积结果与所述当前处理块的输入信息进行融合,得到所述当前处理块的输出信息,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市商汤科技有限公司,未经深圳市商汤科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910595656.5/2.html,转载请声明来源钻瓜专利网。