[发明专利]一种图像数据的增广方法在审
| 申请号: | 201810438780.6 | 申请日: | 2018-05-09 |
| 公开(公告)号: | CN108830294A | 公开(公告)日: | 2018-11-16 |
| 发明(设计)人: | 罗培元 | 申请(专利权)人: | 四川斐讯信息技术有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 上海硕力知识产权代理事务所(普通合伙) 31251 | 代理人: | 郭桂峰 |
| 地址: | 610100 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 图像数据 筛选 图像数据集 类别信息 样本数据 预设 相似度筛选 对抗训练 人工筛选 神经网络 样本图像 图像集 归类 哈希 | ||
1.一种图像数据的增广方法,其特征在于,包括步骤:
S1000获取待筛选图像集的类别信息对应的图像数据;
S2000根据预设筛选策略和所述类别信息对应的样本图像,识别所述图像数据;
S3000根据识别结果将所述图像数据进行归类得到图像数据集;所述预设筛选策略包括相似度筛选,哈希值筛选和关键字筛选中的任意一种或者多种;
S4000对所述图像数据集进行对抗训练得到样本数据集。
2.根据权利要求1所述的图像数据的增广方法,其特征在于,所述步骤S2000包括步骤:
S2100计算当前图像数据与所述样本图像之间的汉明距离;
S2200根据所述汉明距离,判断所述当前图像数据与样本图像之间的相似度是否达到预设相似度阈值;若是,执行步骤S2300;
S2300根据所述样本图像对应的类别信息标记所述当前图像数据;
S2400切换下一当前图像数据执行步骤S2100-S2400,直至所有图像数据识别标记完成。
3.根据权利要求2所述的图像数据的增广方法,其特征在于,所述步骤S2100包括步骤:
S2110缩小所述当前图像数据的尺寸;
S2111将缩小尺寸后的当前图像数据进行灰度处理;
S2112将缩小尺寸并灰度处理后的当前图像数据等量分割为若干个图像块;
S2113计算所有图像块的灰度平均值;
S2114将每个图像块的灰度值与所述灰度平均值进行比较,得到所述当前图像数据的比较结果;
S2115根据所述当前图像数据的比较结果与所述样本图像的比较结果,计算得到所述当前图像数据与所述样本图像之间的汉明距离。
4.根据权利要求2所述的图像数据的增广方法,其特征在于,所述步骤S2100还包括步骤:
S2120将所述当前图像数据进行灰度处理,获取各个像素点的灰度值;
S2121判断当前像素点的灰度值与目标像素点之间的灰度差值是否达到预设灰度差值;所述目标像素点为与以所述当前像素点为圆心,以预设长度为半径生成的圆周上的像素点;若是,执行步骤S2122;
S2122统计所述灰度差值大于所述预设灰度差值的像素点的数量,判断所述数量是否达到预设数目;若是,执行步骤S2123;
S2123确定所述当前像素点为特征点;
S2124根据所述当前图像数据的特征点与所述样本图像的特征点,计算得到所述当前图像数据与所述样本图像之间的汉明距离。
5.根据权利要求1所述的图像数据的增广方法,其特征在于,所述步骤S2000还包括步骤:
S2600获取各个图像数据的关键字;所述关键字包括图像名称,图片内容图片时间中的任意一种或者多种;
S2700将每个图像数据的关键字与所述样本图像的关键字进行匹配得到识别结果。
6.根据权利要求1所述的图像数据的增广方法,其特征在于,所述步骤S2000还包括步骤:
S2800获取各个图像数据的哈希值;
S2900将每个图像数据的哈希值与所述样本图像的哈希值进行匹配得到识别结果。
7.根据权利要求1-6任一项所述的图像数据的增广方法,其特征在于,所述S3000包括还包括步骤:
S3100根据所有识别结果筛选出噪声图像,获取所述噪声图像的哈希值;
S3200根据所述噪声图像的哈希值和各个图像数据的哈希值,对所有图像数据进行的聚类,根据聚类结果得到噪声图像集;
S3300选取所述噪声图像集中的若干个图像数据,验证是否是噪声图像,统计验证结果得到对应的验证准确率;
S3400判断所述验证准确率是否低于预设验证准确率;若是,执行步骤S3500;否则,执行步骤S3600;
S3500删除所述噪声图像集,并根据所述识别结果将各个图像数据分配至对应的图像数据集中;
S3600调整所述预设筛选策略中的预设条件,根据调整后的预设筛选策略重新进行识别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川斐讯信息技术有限公司,未经四川斐讯信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810438780.6/1.html,转载请声明来源钻瓜专利网。





