[发明专利]一种针对多层压缩感知图像的隐私保护度评价方法有效
| 申请号: | 201911355594.7 | 申请日: | 2019-12-25 |
| 公开(公告)号: | CN111199538B | 公开(公告)日: | 2022-11-25 |
| 发明(设计)人: | 石旭刚;刘佶鑫 | 申请(专利权)人: | 杭州中威电子股份有限公司 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T9/00;G06V10/56;G06V10/46;G06V10/762;G06V10/764 |
| 代理公司: | 杭州天昊专利代理事务所(特殊普通合伙) 33283 | 代理人: | 董世博 |
| 地址: | 310051 浙江省杭州市滨*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 针对 多层 压缩 感知 图像 隐私 保护 评价 方法 | ||
本发明公开了一种针对多层压缩感知图像的隐私保护度评价方法,针对多层压缩感知图像,本发明包括分别采用CAAME算法、GCS‑LBP算子和GBVS视觉显著性算法提取图像的对比度特征、显著性结构特征;将训练图像的特征与对应的主观图像质量分数送入支持向量机训练,建立图像质量模型;最后利用模糊C均值算法对预测的质量分数聚类,由类别统计平均得到待测各图像的隐私保护度分数,本发明提出的方法提取符合人眼视觉特性的对比度特征和显著性结构特征,使得图像隐私保护度评价结果更加接近人眼的主观观测,具有很好的准确度和鲁棒性,能够满足多层压缩感知图像处理和模式识别实际应用中对于隐私保护度评价的要求。
技术领域
本发明涉及压缩感知图像领域,特别是涉及一种针对多层压缩感知图像的隐私保护度评价方法。
背景技术
在当今大数据时代,海量的图像和视频使得隐私信息和隐私保护的概念不断得到重视。针对图像与视频的模式识别任务一直是计算机视觉和人工智能领域的研究热点,而在考虑隐私保护的情况下做到高精度识别在近年来受到极大关注。但是如何做到针对图像或视频数据的内容隐私保护度评价成为了该领域亟待解决的问题。
Wright等人将压缩感知(Compressed Sensing,CS)应用到人脸识别中,将其称为稀疏表示下的分类识别(Sparse Representation-Based Classification,SRC),该算法对于被遮挡或者受损坏退化的人脸图像识别具有非常好的鲁棒性。Liu等提出了单层CS采样编码模型,实现了利用基于混沌元胞自动机和原信号阈值(Cellular Automata Chaos andOriginal Signal Thresholding,CAC-OST)模型的CS采样编码。由此,可将单层CS采样模型进行多层扩展,通过CS采样编码得到多层CS态下的图像。而由于CS欠采样的特点,各层图像的分辨率及像素值大小等会发生变化,导致图像质量退化,图像内容会随采样层数的增加而逐渐变得不可见或不可辨,这就为隐私保护及隐私保护下的模式识别提供了可能。
因此,为了衡量多层压缩感知隐私保护的性能、指导图像采样编码等目的,希望计算机能自动评价一幅图像的隐私保护程度。于是,需要设计一种和人眼视觉特性一致的针对多层压缩感知图像的隐私保护度评价算法显得至关重要。
发明内容
本发明的目的是解决现有技术的不足,提供一种针对多层压缩感知图像的隐私保护度评价方法,结构简单,使用方便。
一种针对多层压缩感知图像的隐私保护度评价方法,包括如下步骤:
步骤1:从总图集选取设定张数图像的多层压缩感知图像,构成训练集图像;总图集中剩余的图像作为待测图像;
步骤2:提取训练集图像的对比度特征,记为fc;
步骤3:提取训练集图像的显著性结构特征,记为fs;
步骤4:将训练集所有图像的特征[fc,fs]和对应的主观质量分数送入支持向量机模型中训练,得到一个图像质量评价模型;
步骤5:对于待测图像,按照步骤2、步骤3相同的方法提取待测图像的特征,然后输入步骤4训练好的模型中,得到待测图像的预测质量分数;
步骤6:将待测图像预测质量分数与训练集所有图像的质量分数进行分类;
步骤7:计算待测图像的所属类别中训练集图像的主观隐私保护度分数的统计平均;所述主观隐私保护度分数的统计平均为预测的隐私保护度分数。
进一步的,所述步骤1中的训练集图像为总图集图像数量的80%,剩余20%作为待测图像;所述多层压缩感知图像为五层压缩感知采样。
进一步的,所述训练集图像以主观图像质量分数和主观隐私保护度分数作为训练标签。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州中威电子股份有限公司,未经杭州中威电子股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911355594.7/2.html,转载请声明来源钻瓜专利网。





