[发明专利]一种区域量化参数的确定方法、装置、存储介质及终端在审
| 申请号: | 202010784772.4 | 申请日: | 2020-08-06 |
| 公开(公告)号: | CN112070718A | 公开(公告)日: | 2020-12-11 |
| 发明(设计)人: | 束文韬 | 申请(专利权)人: | 北京博雅慧视智能技术研究院有限公司 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11 |
| 代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 刘广达 |
| 地址: | 100193 北京市海淀区西*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 区域 量化 参数 确定 方法 装置 存储 介质 终端 | ||
本发明公开了一种区域量化参数的确定方法、装置、存储介质及终端,所述方法包括:根据判断结果,选取用于确定区域量化参数的确定方法,量化参数确定方法包括第一确定方法和第二确定方法,第一确定方法用于在各个矩形区域之间至少有一个重叠区域的情况下,确定选取的任一重叠区域对应的第一区域量化参数,第二确定方法用于在各个矩形区域之间无重叠区域的情况下,确定选取的任一矩形区域对应的第二区域量化参数;根据确定方法确定对应的区域量化参数,因此,采用本申请实施例,由于能够根据多个用户感兴趣的矩形区域之间是否有重叠区域的判断结果选择对应的量化参数确定方法,从而提供了简单且灵活的区域量化参数的确定方法。
技术领域
本发明涉及计算机技术领域,特别涉及一种区域量化参数的确定方法、装置、存储介质及终端。
背景技术
目前,现有的图像处理技术,在确定用户对图像数据库中的某一图片感兴趣之后,往往会根据追踪和捕捉用户眼睛对当前图片的某些感兴趣区域的眼部运动和眼部运动轨迹,确定出哪一区域是用户关注的区域,需要对该区域的清晰度做清晰处理,而哪一区域不是用户关注的区域,可能是无关背景色,可以做模糊处理。
图像为二维矩阵,识别出的用户感兴趣的区域为二维矩阵中的一部分,为一矩形。识别出的每一个用户感兴趣的区域是有一个共同的量化参数的。当多个用后感兴趣的区域有共同的区域时,针对该共同的区域,都分别对应有不同的量化参数,因此,选取哪一个区域对应的量化参数作为该共同区域的量化参数,是待解决的问题。
现有针对上述问题的解决方案为,对共同区域的参数进行冒泡排序,找到最值作为共同区域的参数,其中,最值往往为最小值。冒泡排序的基本思想为:冒泡排序,类似于水中冒泡,较大的数沉下去,较小的数慢慢冒起来,假设从小到大,即为较大的数慢慢往后排,较小的数慢慢往前排。直观表达为,每一趟遍历,将一个最大的数移到序列末尾。
针对上述冒泡排序算法进行简单描述如下所述:
比较相邻的元素,如果前一个比后一个大,交换之;
第一趟排序第1个和第2个一对,比较与交换,随后第2个和第3个一对比较交换,这样直到倒数第2个和最后1个,将最大的数移动到最后一位;
第二趟将第二大的数移动至倒数第二位;
重复上述过程,因此,需要n-1趟确定出所有用户感兴趣的区域中的最小值,假设用户感兴趣的区域为n个区域,其中,n为大于等于2的自然数。根据上述描述可知,现有的基于冒泡排序的方法,确定最值作为共同区域的参数的过程,至少需要n-1趟对所有用户感兴趣的区域的量化参数的比较过程,才能最终确定出最小值,并将该最小值作为共同区域的参数。
在实际应用中,能够对图像进行高效处理的芯片,需要对多个用户感兴趣区域的量化参数进行排序,排序过程复杂,需要消耗大量的时间,才能最终确定出交叉区域的区域量化参数,这样,最终导致能够对图像进行处理的芯片的图像处理效率性能不佳。
发明内容
本申请实施例提供了一种区域量化参数的确定方法、装置、存储介质及终端。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
第一方面,本申请实施例提供了一种区域量化参数的确定方法,所述方法包括:
确定当前图像对应的多个用户感兴趣的矩形区域,并对各个矩形区域标识以不同的标识号;
判断标识为不同标识号的各个矩形区域是否有重叠区域,得到判断结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京博雅慧视智能技术研究院有限公司,未经北京博雅慧视智能技术研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010784772.4/2.html,转载请声明来源钻瓜专利网。





