基于图像张量与噪声建模的遥感图像复原
Remote Sensing Image Restoration Based on Image Tensor and Noise Modeling
DOI: 10.12677/aam.2025.141011, PDF, HTML, XML,   
作者: 万佳伟, 潘炳百:长春理工大学数学与统计学院,吉林 长春;贾小宁:长春理工大学数学与统计学院,吉林 长春;长春理工大学中山研究院遥感技术与大数据分析实验室,广东 中山
关键词: 低秩张量函数高斯混合模型低秩张量分解噪声建模Low-Rank Tensor Function Gaussian Mixture Model Low-Rank Tensor Decomposition Noise Modeling
摘要: 在高光谱图像(HSI)处理领域,一个核心问题是从各类退化现象中恢复HSI数据,诸如噪声污染及信息缺失等。然而,当前多数方法未能充分考量HSI的丰富先验信息及所含噪声,这在一定程度上限制了其实际应用效果。本文提出了一种新颖的HSI恢复方法,它结合了图像的内在结构和噪声特性,构建了一个基于低秩张量函数的模型。这个模型通过低秩张量分解来捕捉图像的全局结构,从而有效地利用图像的内在规律。同时,该模型还使用高斯混合模型来建模噪声的概率分布,这使得模型能够更好地适应不同类型和强度的噪声。在训练过程中,模型会综合考虑数据误差、图像平滑性约束以及负对数似然损失等多种因素。通过优化这些参数,模型能够进一步提高图像质量,实现清晰图像的恢复。在模拟和实际场景下的大量实验结果证明了所提方法的有效性以及其优于现有先进方法的优越性。
Abstract: In the field of hyperspectral image (HSI) processing, a core challenge is recovering HSI data from various degradation phenomena, such as noise contamination and missing information. However, most existing methods fail to fully account for the rich prior information in HSIs and the characteristics of the noise, which to some extent limits their practical effectiveness. This paper proposes a novel HSI recovery method that integrates the intrinsic structure of images and noise characteristics by constructing a model based on low-rank tensor functions. This model leverages low-rank tensor decomposition to capture the global structure of the image, effectively utilizing the inherent patterns within the data. Simultaneously, the model employs a Gaussian mixture model to characterize the probabilistic distribution of the noise, allowing it to better adapt to various types and levels of noise. During the training process, the model comprehensively considers factors such as data fidelity, image smoothness constraints, and negative log-likelihood loss. By optimizing these parameters, the model can further enhance image quality and achieve clear image recovery. Extensive experiments conducted in both simulated and real-world scenarios demonstrate the effectiveness of the proposed method and its superiority over state-of-the-art approaches.
文章引用:万佳伟, 贾小宁, 潘炳百. 基于图像张量与噪声建模的遥感图像复原[J]. 应用数学进展, 2025, 14(1): 78-88. https://doi.org/10.12677/aam.2025.141011

1. 引言

高光谱图像(HSI)在空间–光谱域中表现出显著的全局相关性,这一内在结构特征可由其低秩性来描述。低秩性意味着相关图像数据分布于低维子空间中,依据低秩性的不同表现形式,现有方法主要分为基于矩阵和基于张量的两大类别。基于矩阵的方法将受损图像在光谱模式下展开为矩阵形式,并通过矩阵因子分解[1] [2]或秩最小化[3] [4]技术来强化其低秩特性。然而,该展开过程往往会导致波段内空间结构的破坏,尤其在图像严重退化的情况下,这将影响恢复效果,使其难以达到最优。为解决这一问题,基于张量的方法采用低秩张量近似来表示原始清晰图像,从而更精确地描述HSI的空间–光谱相关性。然而,与矩阵情况不同,张量的低秩表示尚未得到明确解决,原因在于高阶张量的秩定义并不唯一。典型的张量秩包括Tucker秩[5] [6] (由展开矩阵的秩定义)和CANDECOMP/PARAFAC (CP)秩[7] [8] (定义为最小秩一张量分解的数量)。研究指出,解决低Tucker/CP秩问题能够有效地获得数据的紧凑且有意义的表示。同时,低Tucker/CP秩模型已被证明能提升现代深度学习算法的效率,并显示出其广泛的应用潜力。鉴于不同类型的张量秩编码了特定的相关数据结构,近期研究尝试整合不同低秩张量格式所提供的见解,例如加权低秩张量恢复(WLRTR) [9]、基于Kronecker基表示(KBR)的张量低秩性度量[10]以及基于自相似性和矩阵分解的NGmeet [11]

高光谱图像(HSI)的另一个关键结构特性在于其在空间和光谱维度上所展现的局部规律性,这些规律性包括均匀性、平滑性、自相似性以及其他复杂特征。在这些特性中,平滑性是多维数据表示中频繁考虑的正则化形式,众多研究文献将平滑性与低秩表示的概念相结合[12] [13]。在这些混合模型中,Y.B. Zheng等人[14]提出了一种用于HSI混合噪声去除的双因素正则化LRTF模型,Y. S. Luo等人[15]提出一个非线性多层神经网络,通过以自监督的方式仅使用观察到的张量来学习非线性变换。此外,平滑正则化的形式主要分为显式和隐式两大类。显式平滑正则化主要基于总变差(TV)及其变体,如J. Peng等人[16]提出根据沿HSI所有波段的梯度图计算子空间的稀疏性的E3DTV。而隐式平滑正则化则由基函数参数化的非负矩阵因子分解来参数化模型。通过采用低Tucker秩正则化,这一概念在更高阶张量模型中得到了进一步的推广。最近,通过应用傅里叶级数,CP分解被优雅地扩展到多变量函数[17]。这些隐式平滑表示的主要目的是利用基函数(如N. Kargas等人[17]使用截断的多维傅里叶级数系数的张量来近似一个紧凑支持的多元函数)来表示低秩矩阵/张量,从而在矩阵/张量的相邻元素之间隐式地引入平滑性。近年来,深度学习技术在图像表征领域取得了显著进展。通过大量训练的受损–清晰图像对,深度学习旨在学习数据驱动的图像先验,直接将受损图像映射到其恢复版本。学习到的映射函数由具有特定架构的深度神经网络描述,例如H. C. Burger等人[18]使用多层感知器将有噪声的图像映射到无噪声的图像以及K. Zhang等人[19]使用一种快速灵活的去噪卷积神经网络(CNN)进行去噪。由于深度学习方法对复杂图像特征具有强大的非线性拟合能力,它们已被成功应用于HSI恢复,并展现出卓越的性能。

另一方面,嵌入于高光谱成像(HSI)技术中的噪声,同样展现出了多样化的统计特征,诸如多模态分布特性、波段间存在的显著差异以及波段间的相关性等。这些特征通常通过为数据噪声设定适当的先验分布来进行表征,该先验分布对应于受损图像与清晰图像对之间的特定保真度度量。作为两种常见的噪声先验模型,X. Liu等人[20]使用高斯分布(即L2保真度)适用于描述广泛范围内的均匀扰动情况;而拉普拉斯分布[2] (即L1保真度)则对于脉冲噪声(例如离群值、条纹以及截止线等)具有较强的鲁棒性。然而,鉴于这些单峰分布在表示能力上的局限性,它们难以充分捕捉现实世界中噪声的复杂多样性,因为实际噪声往往源自多个不同源头,并遵循多模态分布规律。通过结合高斯与拉普拉斯近似器[3] (即L1 + L2保真度),我们自然而然地克服了这一限制,该方法将噪声分解为密集成分与稀疏成分的总和。一种更为精细化的方法则是将噪声建模为高斯混合模型(MoG)分布[1] (即加权–L2保真度),因为从理论上讲,该模型能够逼近任何连续分布。或者,我们也可以利用对现实噪声的丰富先验知识进行建模。具体而言,那些能够代表全局相关性、局部规律性以及噪声特性的先验,在HSI恢复中展现出了巨大的应用潜力;然而,遗憾的是,大多数现有研究并未充分且全面地挖掘这些强大工具的潜力。从直观上看,由于这三种类型的先验分别从不同的角度描述了HSI的特征,因此,我们期望能够以一种统一的方式对它们加以利用,使它们能够相互协作,从而进一步提升HSI的恢复性能。

随着图像表征和噪声建模的进步,涌现出了许多复杂的HSI恢复方法。根据前面的讨论,尽管这些工作取得了有希望的结果,但更多或更少地忽略了关于遥感图像和现实噪声的丰富先验知识。更准确地说,代表全局相关性、局部规律性和噪声特性的先验在遥感图像恢复中显示出了很大的有效性;然而,大多数现有的工作并没有充分和全面地利用这些强大工具的潜力。

受到上述研究的启发,我们设计了一个基于最大后验(MAP)原则的概率模型,将所提出的图像内在结构和噪声先验融合到一个统一的框架中。这个框架将张量函数表示、深度学习和噪声建模进行有效的和实用的整合。具体来说,HSI的全局相关性是由张量函数的低秩张量函数分解来捕获;HSI的局部相关性由张量函数中MLP的特定结构进行隐式地编码表示;噪声特性由非独立同分布的高斯混合模型来建模。为了求解所提出的模型,我们将期望最大化(EM)和交替方向乘子法(ADMM)结合起来,将原始问题分解成几个简单的子问题,每个子问题都可以通过闭式公式来解决。结果表明,我们的方法可以有效地恢复潜在的清晰图像,并与其他模型的比较中显示出优越的性能。

2. 相关工作

2.1. 图像去噪模型

真实的HSI噪声通常在空间和光谱上的分布为非独立同分布,即在不同的空间位置和不同的波段上有所不同。一种有效的去噪方法是对不同的HSI像素施加权重,图像的去噪的数学模型可以表示为:

min X W ( Y X ) F + λ R ( X ) (1)

其中 Y , X R h w × b 分别表示观察到的有噪声和恢复的HSI, h , w , b 表示研究的HSI的空间、宽度和光谱波段数。F表示Frobenius范数,而表示元素逐个的Hadamard乘积,R(X)是对恢复图像X的某种约束或惩罚项,常见的正则化函数包括:平滑性正则化、稀疏性正则化、图像结构保持。通过加权误差项,希望减少图像的恢复误差,同时考虑到噪声的分布,重点处理噪声较少的区域。通过正则化项R(X),我们希望恢复图像X保持某种平滑性、稀疏性或其他结构特性,避免过拟合噪声。

2.2. 高斯混合模型

高斯混合模型(Gaussian Mixture Model, GMM)是一种基于概率统计的聚类模型,用于表示具有多个高斯分布的复杂数据集。它是由若干个高斯分布的线性组合构成的。

给定数据集 X = { x 1 , x 2 , , x N } ,假设数据可以用K个高斯分布的加权和表示,那么GMM的概率密度函数为:

p ( x ) = k = 1 K π k N ( x | μ k , Σ k ) (2)

其中 π k 表示第k个高斯分布的混合系数(权重),满足 π k > 0 k = 1 K π k = 1 N ( x | μ k , Σ k ) 表示第k个高斯分布的概率密度函数,其概率密度函数的表达式为:

N ( x | μ k , Σ k ) = 1 ( 2 π ) d / 2 | Σ k | 1 / 2 exp ( 1 2 ( x μ k ) T Σ k 1 ( x μ k ) ) (3)

通过最大化数据的似然函数 p ( X ) 来估计参数 { π k , μ k , Σ k } 。似然函数 p ( X ) 为: p ( X ) = n = 1 N k = 1 K π k N ( x n | μ k , Σ k ) 。由于直接求解 p ( X ) 的最大值很困难,通常采用EM算法进行迭代优化。

2.3. 低秩张量函数表示

基于多维数据的连续表示,考虑张量函数 f ( ) ,设 f ( ) : X f × Y f × Z f R 为有界实函数,其中 X f , Y f , Z f R 是三维中的定义域。也就是说如果 D f : = X f × Y f × Z f 给出任意坐标,那么 f ( ) 就可以将三维坐标映射到相应的值,隐式地表示三阶张量数据。特别的,当 D f 是一些常数的离散集时, f ( ) 的输出形式就会变为离散情况,也就是张量形式。

基于张量函数 f ( ) ,首先定义以下的采样张量集,该集合涵盖了可以从张量函数中使用不同采样坐标进行采样的所有张量。

定义:对于一个张量函数 f ( ) : D f R ,我们将采样的张量集 S [ f ] 定义为

S [ f ] : = { T | T ( i , j , k ) = f ( x ( i ) , y ( j ) , z ( k ) ) , x X f n 1 , y Y f n 2 , z Z f n 3 , n 1 , n 2 , n 3 N + } (4)

其中 x , y , z 表示坐标向量变量, n 1 , n 2 , n 3 是决定采样张量T大小的正整数变量。

张量函数是进行多维数据处理的一种有前途且有潜力的工具。考虑将 f ( ) 的函数秩(F-秩)定义为 S [ f ] 中张量秩的上确界。因此,从 S [ f ] 中采样的任何张量都是低秩张量。

定义:给定一个张量函数 f : D f = X f × Y f × Z f R ,用 F r a n k [ f ] ( f ( ) 的函数秩)表示其复杂度的度量,并将其作为采样张量集 S [ f ] 中Tucker秩的上值:

F - r a n k [ f ] : = ( r 1 , r 2 , r 3 ) , r i = sup T S [ f ] r a n k ( T ( i ) ) (5)

F - r a n k [ f ] = ( r 1 , r 2 , r 3 ) (对于 i = 1 , 2 , 3 均有 r i < )的张量函数 f ( ) 称为低秩张量函数,因为 S [ f ] 中任何T的Tucker秩都被限制为 ( r 1 , r 2 , r 3 ) 。当 f ( ) 定义在某些离散集上时, F - r a n k 退化为离散情况,即经典的Tucker秩。因此, F - r a n k 是从离散张量到张量函数的一种扩展,用于连续表示。

类似于经典的张量表示,可以给出张量分解策略来编码张量函数 f ( ) 的低秩性。

定理:设 f ( ) : D f = X f × Y f × Z f R 是一个有界的张量函数,其中,那么:

(i) 如果,则存在一个核张量 C R r 1 × r 2 × r 3 和三个有界因子函数 f x ( ) : X f R r 1 ,以及,使得对于任意,有 f ( v 1 , v 2 , v 3 ) = C × 1 f x ( v 1 ) × 2 f y ( v 2 ) × 3 f z ( v 3 )

(ii) 另一方面,设 C R r 1 × r 2 × r 3 是任意张量,且 g x ( ) : X g R r 1 ,以及 g z ( ) : Z g R r 3 是定义在 X g , Y g , Z g R 上的任意有界函数。那么,对于由 g ( ) : D g = X g × Y g × Z g R 定义的函数 g ( v 1 , v 2 , v 3 ) = C × 1 g x ( v 1 ) × 2 g y ( v 2 ) × 3 g z ( v 3 ) ,我们有 ( F - r a n k [ g ] ) ( i ) r i ( i = 1 , 2 , 3 )

上式是Tucker因式分解从离散网格到连续域的扩展,它继承了Tucker分解的良好性质,即低阶张量函数 f ( ) 可以分解成一些更简单的因子函数。基于低秩张量函数分解,可以将多维数据使用低秩张量函数近似表示,即:

[ C ; f x , f y , f z ] ( v ) : = C × 1 f x ( v ( 1 ) ) × 2 f y ( v ( 2 ) ) × 3 f z ( v ( 3 ) ) (6)

其中,将多维数据由核张量C和因子系数 f x ( ) f y ( ) f z ( ) 参数化。该表示通过低秩函数分解隐式地编码了张量函数的低秩性质,即从张量函数表示中采样的任何张量必须是低秩张量。

3. 方法

3.1. 概率建模

3.1.1. 图像先验

考虑干净的HSI的先验,我们对X施加以下先验,同时描述HSI的全局相关性和局部相关性:

X ~ c exp γ F T N N (7)

其中FTNN是低阶张量函数分解, γ 0 是正则化参数,c是一个归一化常数。

基于低秩张量函数分解,我们可以用低秩张量函数紧凑地表示多维数据,即:

P i j k = [ C ; f θ x , f θ y , f θ z ] ( i , j , k ) , ( i , j , k ) Ω (8)

3.1.2. 噪声先验

我们对 ε 强加以下非独立同分布的MoG先验,假设不同波段的噪声遵循不同且相关的独立同分布的MoG分布,即:

ε ( i , j , k ) ~ l = 1 L ( k , l ) N ( ε ( i , j , k ) | 0 , σ ( l ) 2 ) (9)

其中,L是高斯分量的数量, ( k , : ) R L 是第k个波段的混合比例,其中 ( k , l ) > 0 l = 1 L ( k , l ) = 1 ,而 σ R L 包含了高斯分量的标准差。为了更好地理解噪声先验,我们引入一个潜变量 Z { 0 , 1 } I × J × K × L ,并将(4)重写为以下的两级形式:

ε ( i , j , k ) ~ l = 1 L N ( ε ( i , j , k ) | 0 , σ ( l ) 2 ) Z ( i , j , k , l ) , Z ( i , j , k , : ) ~ M u l t i n o m u i a l ( Z ( i , j , k , : ) | ( k , : ) ) (10)

其中每个 E ( i , j , k , : ) 配备了一个指示器 Z ( i , j , k , : ) { 0 , 1 } L 满足 l = 1 L Z ( i , j , k , l ) = 1 ,服从由 ( k , : ) 控制的多项式分布,即 p ( Z ( i , j , k , l ) = 1 ) = ( k , l ) 。这表明每个噪声元素 E ( i , j , k ) 是从L个高斯分量中的一个抽取的,抽取的概率为第l个分量的 ( k , l )

3.1.3. 最大后验概率

基于MAP原理,我们可以将HSI恢复表述为一个概率模型,通过将图像先验(1)和噪声先验(4)结合起来。我们的目标是最大化以下后验分布 { X , Π , σ }

P ( X , Π , σ | Y ) P ( Y | X , Π , σ ) P ( X ) (11)

将(6)取负对数,我们得到以下等价的最小化问题:

min X , , σ i , j , k = 1 I , J , K ln l = 1 L ( k , l ) N ( Y ( i , j , k ) , σ ( l ) 2 ) + γ F T N N ( X ) (12)

3.2. EM框架下的求解算法

对于直接最小化(7)在计算上是不可行的,我们采用EM算法来近似求解所提出的模型。根据EM框架,我们将解释以下E步和M步的细节:

E步:给定 { X ( s ) , ( s ) , σ ( s ) } ,由第s步EM迭代得到。根据贝叶斯规则,后验分布 p ( Z | Y , X ( s ) , ( s ) , σ ( s ) ) 采用以下形式:

p ( Z | Y , X ( s ) , ( s ) , σ ( s ) ) i , j , k , l = 1 I , J , K , L ( ( s ) ( k , l ) N ( Y ( i , j , k ) | X ( s ) ( i , j , k ) , σ ( s ) ( l ) 2 ) ) Z ( i , j , k , l ) (13)

那么后验概率可以通过以下方式计算得到:

γ ( z l ( i ) ) = π l N ( x ( i ) | μ l , σ ( l ) 2 ) j = 1 L π j N ( x ( i ) | μ j , σ j 2 ) (14)

其中 N ( x | μ , σ l 2 ) 是多元高斯分布的概率密度函数。

M步:从给定E步得到的 γ ( z k ( i ) ) ,我们通过最大化期望来更新 { X ( s + 1 ) , ( s + 1 ) , σ ( s + 1 ) }

解决这个问题的一种自然方法是交替地最大化目标函数关于MOG参数和图像X的部分。具体而言,假设X固定为 X ( s ) ,我们有以下 ( s + 1 ) σ ( s + 1 ) 的封闭解:

( s + 1 ) ( l ) = i = 1 n γ ( z l ( i ) ) N (15)

σ ( s + 1 ) ( l ) 2 = i = 1 N γ ( z k ( i ) ) ( x i μ l ) 2 i = 1 N γ ( z l ( i ) ) (16)

那么,更新 X ( s + 1 ) 相当于解决以下优化问题:

min X 1 2 W ( Y X ) F 2 + γ F T N N ( X ) (17)

其中, W R I × J × K 充当空间变化的正则化参数,包含噪声水平的逐元素估计,及

W = l = 1 L γ ( z k ( i ) ) σ ( s + 1 ) ( l ) 2 (18)

下面将详细介绍通过ADMM求解(11)的细节,ADMM是一种广泛用于解决具有可分离变量的优化问题的算法。

通过ADMM更新X:为了ADMM的使用,我们引入辅助变量 P R I × J × K ,并将(11)重写为以下约束形式:

min X 1 2 W ( Y X ) F 2 + γ F T N N ( P ) s .t . X = P . (19)

通过将变量分解为XP,我们的模型符合ADMM框架,那么(12)的增广Lagrange函数如下所示:

L β ( X , P , A ) = 1 2 W ( Y X ) F 2 + γ F T N N ( P ) + A , X P + β 2 X P F 2 (20)

其中, A R I × J × K 是Lagrange乘子,而 β > 0 是线性约束的惩罚参数,记t为(内部)的迭代索引,则ADMM迭代如下进行:

X ( t + 1 ) = arg min X L β ( t ) ( X , P ( t ) , A ( t ) ) , P ( t + 1 ) = arg min L β ( t ) ( X ( t + 1 ) , P , A ( t ) ) , A ( t + 1 ) = A ( t ) + β ( X ( t + 1 ) P ( t + 1 ) ) , β ( t + 1 ) = ρ β ( t ) (21)

其中, ρ > 1 是一个常数,控制 β 的增长速率。

X-子问题有以下闭式解:

X ( t + 1 ) = W W Y + β ( t ) P ( t ) A ( t ) W W + β ( t ) 1 (22)

其中,里面的乘法和除法都是逐元素应用的。

P子问题可以重写为以下低秩张量表示:

min C , S , θ x , θ y , θ z O X F 2 + γ 1 X T V T i j k = [ C ; f θ x , f θ y , f θ z ] ( i , j , k ) , ( i , j , k ) Ω (23)

其中, f θ x ( ) : X f R r 1 f θ y ( ) : Y f R r 2 f θ z ( ) : Z f R r 3 是三个MLP因子, C R r 1 × r 2 × r 3 是核心张量, T R n 1 × n 2 × n 3 表示恢复的结果, γ i s ( i = 1 , 2 ) 是权衡参数。记 P ( s + 1 ) T i j k = [ C ; f θ x , f θ y , f θ z ] ( i , j , k ) ( i , j , k ) Ω 。即将 T i j k 替换为 P ( s + 1 ) 。我们考虑利用交替最小化算法来处理去噪模型。具体来说,我们在第t次迭代中去解决以下两个子问题:

min C , θ x , θ y , θ z O X F 2 + γ 2 X T V , T i j k = [ C , f θ x , f θ y , f θ z ] ( i , j , k ) , ( i , j , k ) Ω . (24)

在交替最小化的每次迭代中,对于这两个子问题我们首先使用Adam算法来解决 { C , θ x , θ y , θ z } 子问题。

算法1 解决提出的模型的EM算法

输入:观测到的HSI Y,索引集{Ωknown,Ωmissing},参数{rρsmaxtmaxhmax γ i ( i = 1 , 2 )}

初始化:设定s := 0,初始化{ L ( s ) X ( s ) π ( s ) σ ( s ) }

EM循环:ssmax时执行以下步骤:

1.E步:通过(14)更新期望 γ ( z k ( i ) )

2.M步对{ π ( s ) , σ }通过(15)和(16)更新MoG参数{ π ( s + 1 ) σ ( s + 1 ) }

3.M步对X通过ADMM更新 X ( s + 1 )

初始化:设定t := 0,初始化{ β ( t ) P ( t ) A ( t ) }

ADMM循环:ttmax时执行以下步骤:

a.通过(21)更新 X ( t + 1 )

b.通过张量函数分解更新 P ( t + 1 )

初始化设置h :=0,分别随机初始化权重矩阵

θ x : = { H i } i = 1 d θ y : = { W i } i = 1 d θ z : = { U i } i = 1 d

张量函数循环: hhmax

i.通过公式(24)使用ADMM算法更新 [ C ; θ x , θ y , θ z ]

ii.设置 h := h+1

结束时输出 P ( i j k ) ( t + 1 ) = [ C ( h ) ; f θ x ( h ) , f θ y ( h ) , f θ z ( h ) ] ( i , j , k ) , ( i , j , k ) Ω

d. 通过(25)更新{ A ( t + 1 ) β ( t + 1 ) }

e.设定t := t + 1

结束循环并输出 X ( s + 1 ) : = X ( t )

4. 更新高斯分量的数量 L ( s + 1 )

5. 设定s := s + 1

结束循环并输出 X : = X ( s )

4. 实验

在实验中,我们对所有引入的任务进行了比较实验和分析。首先介绍了一些重要的实验设置。然后,介绍了任务的基线、数据集和结果。

我们的方法是在PyTorch 1.7.0上实现的,使用了i9-13900HX CPU和RTX 4060 GPU (12 GB GPU内存)。评估指标方面,对于去噪我们使用峰值信噪比(PSNR)、结构相似性(SSIM)进行评估。在对比实验方面,我们选取与基于低秩矩阵/张量的方法LRMR、LRTDTV和E3DTV进行比较。测试数据包括CAVE数据集中的MSI。我们考虑了几种不同的噪声情况。Case 1包含标准差为0.2的高斯噪声。Case 2包含标准差为0.4的高斯噪声。Case 3包含标准差为0.2的高斯噪声加上40%的光谱波段的条纹噪声。Case 4 包含标准差为0.2的高斯噪声加上50%的光谱波段的截止噪声和加上40%的光谱波段的条纹噪声。Case 5包含标准差为0.2的高斯噪声加上50%的光谱波段的截止噪声和加上40%的光谱波段的条纹噪声加上0.3的散斑噪声。

表1图1图2展示了本文提出的MSI去噪方法的实验结果。根据表1的数据,在不同噪声条件下,本文方法表现出较高的稳定性,相较于其他去噪算法优势明显。特别是,与精心设计的基于TV的去噪方法(如LRTDTV和E3DTV)相比,我们的方法在各种噪声环境下均取得了更优的性能,这充分说明了我们结合全局与局部平滑正则化并考虑高斯混合模型策略的优越性。从图2可以直观地看到,本文方法能够有效去除复杂噪声,而其他方法在处理混合噪声时偶尔会出现残留现象。与之相比,其他去噪方法有时无法完全去除混合噪声。此外,图中还显示,其他基于模型的算法(如LRTDTV和E3DTV)可能导致过度平滑,损失图像细节。相比之下,本文方法不仅在去噪过程中更好地保留了图像的细节信息,还展现出更高的鲁棒性。换句话说,本文提出的模型方法通过隐式编码多种先验信息,对不同类型的噪声均能提供更一致的去噪性能。

Table 1. Comparison of denoising effects of different algorithms on CAVE datasets under different noise conditions

1. 不同算法在不同噪声情况下对CAVE数据集去噪效果对比

情况

评价指标

LRMR

LRTDTV

E3DTV

Ours

1

PSNR

22.7549

25.6296

32.8922

35.2593

SSIM

0.2585

0.3752

0.9504

0.9546

2

PSNR

16.0152

18.5976

28.5196

32.2397

SSIM

0.0750

0.1124

0.8767

0.9102

3

PSNR

22.4374

27.8890

31.9054

35.2340

SSIM

0.2316

0.4863

0.9252

0.9526

4

PSNR

22.1386

27.4867

31.7281

35.0576

SSIM

0.2341

0.4717

0.9295

0.9526

5

PSNR

21.9967

27.1666

30.5457

35.1417

SSIM

0.2362

0.4757

0.9303

0.9531

Observed LRMR LRTDTV E3DTV Ours Original

Figure 1. Denoised images of the CAVE dataset under Case 1 using different denoising methods

1. CAVE数据集在Case 1下的不同去噪方法下的去噪图像

Observed LRMR LRTDTV E3DTV Ours Original

Figure 2. Denoised images of the CAVE dataset under Case 5 using different denoising methods

2. CAVE数据集在Case 5下的不同去噪方法下的去噪图像

5. 结论

本文提出了一种新颖的高光谱图像恢复方法,充分结合了图像的内在结构和噪声特性,构建了基于低秩张量函数的统一模型框架。通过利用张量函数分解捕获全局相关性、利用MLP结构隐式编码局部相关性,以及基于非独立同分布的高斯混合模型建模复杂噪声分布,该方法能够在复杂退化场景下有效恢复清晰图像。采用期望最大化(EM)和交替方向乘子法(ADMM)的优化策略进一步提升了模型的求解效率和性能。大量模拟和真实场景下的实验验证了所提方法的有效性,其在恢复质量和稳健性方面均优于现有先进方法,展现出广阔的实际应用前景。未来工作可以进一步探索更复杂噪声环境下的鲁棒性提升以及模型在大规模数据处理中的效率优化。

参考文献

[1] Meng, D. and De la Torre, F. (2013) Robust Matrix Factorization with Unknown Noise. 2013 IEEE International Conference on Computer Vision, Sydney, 1-8 December 2013, 1337-1344.
https://doi.org/10.1109/iccv.2013.169
[2] Zhao, Q., Meng, D.Y., Xu, Z.B., Zuo, W.M. and Yan, Y. (2015) L1-Norm Low-Rank Matrix Factorization by Variational Bayesian Method. IEEE Transactions on Neural Networks and Learning Systems, 26, 825-839.
https://doi.org/10.1109/tnnls.2014.2387376
[3] He, W., Zhang, H., Shen, H. and Zhang, L. (2018) Hyperspectral Image Denoising Using Local Low-Rank Matrix Recovery and Global Spatial-Spectral Total Variation. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 11, 713-729.
https://doi.org/10.1109/jstars.2018.2800701
[4] Zhao, Y.Q. and Yang, J.X. (2015) Hyperspectral Image Denoising via Sparse Representation and Low-Rank Constraint. IEEE Transactions on Geoscience and Remote Sensing, 53, 296-308.
https://doi.org/10.1109/tgrs.2014.2321557
[5] Liu, J., Musialski, P., Wonka, P. and Ye, J. (2013) Tensor Completion for Estimating Missing Values in Visual Data. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 208-220.
https://doi.org/10.1109/tpami.2012.39
[6] Tucker, L.R. (1966) Some Mathematical Notes on Three-Mode Factor Analysis. Psychometrika, 31, 279-311.
https://doi.org/10.1007/bf02289464
[7] Carroll, J.D. and Chang, J. (1970) Analysis of Individual Differences in Multidimensional Scaling via an N-Way Generalization of “Eckart-Young” Decomposition. Psychometrika, 35, 283-319.
https://doi.org/10.1007/bf02310791
[8] Zhao, Q., Zhang, L. and Cichocki, A. (2015) Bayesian CP Factorization of Incomplete Tensors with Automatic Rank Determination. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37, 1751-1763.
https://doi.org/10.1109/tpami.2015.2392756
[9] Chang, Y., Yan, L., Zhao, X., Fang, H., Zhang, Z. and Zhong, S. (2020) Weighted Low-Rank Tensor Recovery for Hyperspectral Image Restoration. IEEE Transactions on Cybernetics, 50, 4558-4572.
https://doi.org/10.1109/tcyb.2020.2983102
[10] Xie, Q., Zhao, Q., Meng, D. and Xu, Z. (2018) Kronecker-Basis-Representation Based Tensor Sparsity and Its Applications to Tensor Recovery. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40, 1888-1902.
https://doi.org/10.1109/tpami.2017.2734888
[11] He, W., Yao, Q., Li, C., Yokoya, N. and Zhao, Q. (2019) Non-local Meets Global: An Integrated Paradigm for Hyperspectral Denoising. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 6861-6870.
https://doi.org/10.1109/cvpr.2019.00703
[12] Luo, Y., Zhao, X., Meng, D. and Jiang, T. (2022) HLRTF: Hierarchical Low-Rank Tensor Factorization for Inverse Problems in Multi-Dimensional Imaging. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, 18-24 June 2022, 19281-19290.
https://doi.org/10.1109/cvpr52688.2022.01870
[13] Peng, J., Wang, Y., Zhang, H., Wang, J. and Meng, D. (2022) Exact Decomposition of Joint Low Rankness and Local Smoothness Plus Sparse Matrices. IEEE Transactions on Pattern Analysis and Machine Intelligence, 45, 5766-5781.
https://doi.org/10.1109/tpami.2022.3204203
[14] Zheng, Y., Huang, T., Zhao, X., Chen, Y. and He, W. (2020) Double-Factor-Regularized Low-Rank Tensor Factorization for Mixed Noise Removal in Hyperspectral Image. IEEE Transactions on Geoscience and Remote Sensing, 58, 8450-8464.
https://doi.org/10.1109/tgrs.2020.2987954
[15] Luo, Y., Zhao, X., Jiang, T., Chang, Y., Ng, M.K. and Li, C. (2022) Self-Supervised Nonlinear Transform-Based Tensor Nuclear Norm for Multi-Dimensional Image Recovery. IEEE Transactions on Image Processing, 31, 3793-3808.
https://doi.org/10.1109/tip.2022.3176220
[16] Peng, J., Xie, Q., Zhao, Q., Wang, Y., Yee, L. and Meng, D. (2020) Enhanced 3DTV Regularization and Its Applications on HSI Denoising and Compressed Sensing. IEEE Transactions on Image Processing, 29, 7889-7903.
https://doi.org/10.1109/tip.2020.3007840
[17] Kargas, N. and Sidiropoulos, N.D. (2021) Supervised Learning and Canonical Decomposition of Multivariate Functions. IEEE Transactions on Signal Processing, 69, 1097-1107.
https://doi.org/10.1109/tsp.2021.3055000
[18] Burger, H.C., Schuler, C.J. and Harmeling, S. (2012) Image Denoising: Can Plain Neural Networks Compete with BM3D? 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, 16-21 June 2012, 2392-2399.
https://doi.org/10.1109/cvpr.2012.6247952
[19] Zhang, K., Zuo, W. and Zhang, L. (2018) FFDNet: Toward a Fast and Flexible Solution for CNN-Based Image Denoising. IEEE Transactions on Image Processing, 27, 4608-4622.
https://doi.org/10.1109/tip.2018.2839891
[20] Liu, X., Bourennane, S. and Fossati, C. (2012) Denoising of Hyperspectral Images Using the PARAFAC Model and Statistical Performance Analysis. IEEE Transactions on Geoscience and Remote Sensing, 50, 3717-3724.
https://doi.org/10.1109/tgrs.2012.2187063

Baidu
map