[发明专利]基于压缩感知和正交调制实现多图像压缩和重建的方法有效
申请号: | 201710035233.9 | 申请日: | 2017-01-18 |
公开(公告)号: | CN106887026B | 公开(公告)日: | 2019-08-16 |
发明(设计)人: | 周昕;周媛媛;张罗致 | 申请(专利权)人: | 四川大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T9/00;H04N9/31 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 压缩 感知 正交 调制 实现 图像 重建 方法 | ||
本发明公开了一种基于压缩感知和正交调制实现多图像压缩和重建的方法,属于光学单像素成像领域,可以解决传统单像素相机中对巨大幅图像进行压缩采样和重建时,所带来的即使仅需重建局部分块图像也需要大量数据处理的缺陷。本发明主要是利用正交调制技术来实现图像的分块重建或者多幅图像中的部分重建,其步骤可概述为:首先将原图像进行均匀分块,对每个分块图像对应的感知矩阵乘以相应的正交基矩阵,得到包含正交信息的新的随机矩阵,该随机矩阵相当于传统压缩感知中的感知矩阵;再利用压缩感知原理进行数据采集;在图像重建时,只需用相应的正交基矩阵的转置乘以采集到的总数据,即可提取出对应的分块图像数据,再进行重建运算。这种方法可以仅恢复需要的部分图像数据,因而减轻了数据处理的负担。
技术领域
本发明属于光学单像素成像领域,具体说是一种动态照明单像素成像方法。
背景技术
传统的奈圭斯特采样定律告诉我们,要想精确地重构出原始信号,必须要以大于信号最高频率的两倍进行采样。然而这种方法却产生了巨大的冗余数据,只有少量的数据被使用,信号的带宽利用率不高。因此如何以较少的比特数来表示信号,以降低存储、传输和处理的负担是我们必须解决的问题。Donoho提出了压缩感知的理论(Donoho DL.Compressed sensing[J].IEEE Transaction on Information Theory.2006,52(4):1289-1306.),以压缩感知(或称直接感知)的方式去掉了冗余数据后的信息,实现了边采集边压缩的过程。通过一组随机的部分采样像素就可重建出原始图像,也就是说利用较少的重要数据即可恢复出原始信号。到目前为止,压缩感知理论最重要的应用是美国Rice大学研究出的单像素相机,利用数字微镜阵列进行线性采样测量,得到测量值向量,然后进行精确重构。
图1为Rice大学研究出的单像素相机原理图。该成像系统可以分为三个模块:光路调制模块,数据采集模块,图像重构模块。其工作原理是:首先根据测量矩阵设置数字微转镜器件(DMD)的翻转状态,在像面上对光学图像进行线性采样;然后利用光电倍增管测量收集总光能量,并采用数据采集卡进行A/D转换及存储;最后由测量矩阵和采样测量值,利用重构算法重构出目标图像。该系统属于被动型成像系统,存在一些局限性,其重构图像的分辨率是由DMD的排列模式决定的,可以由测量矩阵进行设定。但是由于DMD的排列模式是有限的,因此只能进行有限分辨率图像的重建。
为了能够增加图像重建分辨率的灵活性,并适应主动型成像系统的需要,可以采用投射光源(如液晶投影仪)将生成的随机测量图片投射到物体上的方式,来代替上述DMD的功能,实现动态照明的单像素成像。现有的动态照明单像素成像,是将按照一定概率分布随机生成的一幅幅图片,通过投影仪依次投射在被测物体上以完成压缩感知过程,再重建出被测物体图像,这是一种对单幅图像压缩采集再重建恢复的过程。如果对于多幅图像,则需要重复多次单幅图像的压缩采集过程,并记录大量数据;或者对于由若干分块子图像所组成的巨大图像,在仅需要重建某部分分块子图像信息时,却不得不对整幅巨大图像进行恢复重建运算,因而产生一些不必要的数据重建,信息的处理量大大增加,浪费运算开销。
发明内容
本发明在动态照明的单像素成像方法基础上,为了实现在记录的多幅图像中仅重建部分图像,或者在巨大的图像中仅提取所需要的部分信息,提出了一种可以对整幅图像进行分块重建的方法;能够按需要选择重建图像分辨率,并可以仅重建所需的分块图像,节省运算开销,即对多幅图像进行压缩感知处理并记录,然后重建时从记录中仅提取所需信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710035233.9/2.html,转载请声明来源钻瓜专利网。