[发明专利]基于粗糙集α-正域约简的富模型隐写检测特征选取方法有效
申请号: | 201711329640.7 | 申请日: | 2017-12-13 |
公开(公告)号: | CN108009434B | 公开(公告)日: | 2020-04-24 |
发明(设计)人: | 罗向阳;马媛媛;李晓龙;包震坤;张祎;王道顺;杨春芳;刘粉林 | 申请(专利权)人: | 中国人民解放军战略支援部队信息工程大学 |
主分类号: | G06F21/60 | 分类号: | G06F21/60 |
代理公司: | 郑州大通专利商标代理有限公司 41111 | 代理人: | 石丹丹 |
地址: | 450000 河*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 粗糙 正域约简 模型 检测 特征 选取 方法 | ||
本发明属于信息隐写分析技术领域,特别是涉及一种基于粗糙集α‑正域约简的富模型隐写检测特征选取方法,首先,将富模型隐写检测特征构建成相应的决策表;然后,采用ASM度量决策表中每个特征分量的属性可分性,将ASM值作为排序和划分子集的依据;最后,基于粗糙集α‑正域约简对富模型隐写检测特征进行约简时,向约简子集中依次添加若干个ASM值较大的连续的候选特征分量,同时利用粗糙集α‑正域约简的属性独立性原则排除其中冗余和冲突的特征分量。该方法降低隐写检测特征的维数,提高隐写检测的效率。
技术领域
本发明属于信息隐写分析技术领域,特别是涉及一种基于粗糙集α-正域约简的富模型隐写检测特征选取方法。
背景技术
信息隐写技术通过将秘密信息嵌入到图像、视频、音频、文本等数字媒体中,以实现隐秘通信。与之相对的隐写分析技术,则致力于检测和提取通过公开信道传输的秘密信息。经过约20年的发展,图像隐写技术取得了巨大的进步,已从早期简单的LSB(LeastSignificant Bit)替换隐写发展到现在的自适应隐写。图像自适应隐写技术将嵌入更改置于在图像中难以建模的复杂纹理或噪声区域,取得了优异的抗检测性能。伴随着图像隐写技术的快速发展,隐写分析技术也取得了长足进步。近年来,检测者通过提取图像的多类统计属性构建高维特征,并结合集成分类器对自适应隐写进行检测,取得了较好的检测效果。然而,尽管这些高维特征在检测自适应隐写方面表现出良好的效果,但这些特征也给提取以及相应的分类器训练带来了庞大的计算开销,限制了这类方法的实际应用。为此,本发明将致力于解决如何在保持高维Rich Model(富模型)特征检测性能相当的条件下对其进行大幅度降维的问题。
学术界针对隐写检测特征维数的降维问题已开展了一些研究。已有的降维方法达到了降低维数的目的,但有些方法的检测准确率有待提高,另一些方法又不适合对RichModel隐写检测特征进行降维。针对Rich Model的有效的降维方法是目前隐写分析方向亟待研究的问题之一。考虑到Rich Model特征中可能存在大量冗余和冲突的特征以及粗糙集理论解决此类问题的优势,本发明尝试引入粗糙集α-正域约简理论解决高维隐写检测特征选取和降维问题。
发明内容
为了克服现有技术中存在的缺陷,本发明的目的是提供一种基于粗糙集α-正域约简的富模型隐写检测特征选取方法,降低隐写检测特征的维数,提高隐写检测的效率。
为了实现上述目的,本发明采用以下的技术方案:
一种基于粗糙集α-正域约简的富模型隐写检测特征选取方法,含有以下步骤:
步骤1,将富模型隐写检测特征构建成相应的决策表;
步骤2,采用ASM度量决策表中每个特征分量的属性可分性,将ASM值作为排序和划分子集的依据;
步骤3,基于粗糙集α-正域约简对富模型隐写检测特征进行约简时,向约简子集中依次添加若干个ASM值较大的连续的候选特征分量,同时利用粗糙集α-正域约简的属性独立性原则排除其中冗余和冲突的特征分量。
进一步地,所述步骤1的具体实现过程如下:
步骤1.1,对提取的富模型高维特征进行归一化,
其中,和是第j个载体和载密图像的第i个特征分量的值;经过处理后,决策表内数据都是离散的且值在[-1,1]之间的数值型数据;
步骤1.2,明确决策属性值,决策属性集由0或者1表示,0代表载体图像,1代表载密图像;
步骤1.3,构建一个二维决策表T,每一行表示某一幅图像的特征分量的值,每一列表示各幅图像的同一维特征分量的值,表示第j个载体图像的第i个特征分量对应的值,表示第j个载密图像的第i个特征分量对应的值,1≤j≤M,1≤i≤N,最后一列表示图像的决策属性;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军战略支援部队信息工程大学,未经中国人民解放军战略支援部队信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711329640.7/2.html,转载请声明来源钻瓜专利网。