基于改进饱和线先验的遥感图像去雾算法-凯发娱乐官网

基于改进饱和线先验的遥感图像去雾算法
remote sensing image dehazing algorithm based on improved saturated line prior
doi: , , html, ,   
作者: 牛贵民:长春理工大学,数学与统计学院,吉林 长春;李 喆:长春理工大学,数学与统计学院,吉林 长春;长春理工大学中山研究院,遥感技术与大数据分析实验室,广东 中山
关键词: ;;;;;;;
摘要: 针对在雾霾天气下获得的遥感图像产生清晰度降低,对比度和色彩保真度下降的问题,考虑到遥感图像成像较宽、信息量较大的特点,本文提出一种基于改进饱和线先验的遥感图像去雾算法。该算法首先对初始图像进行预处理,其次基于饱和线先验理论对含雾图像构建饱和线以估计初始透射率,之后引入补偿因子与梯度域导向滤波器对透射率进行优化,提升了算法的鲁棒性,最后根据大气散射模型复原出清晰遥感图像。数值实验结果表明,本文算法对多种场景下的含雾遥感图像都取得了良好的效果。
abstract: aiming at the problem of reduced clarity, contrast and color fidelity of remote sensing images obtained under hazy weather, considering the characteristics of wide imaging and large amount of information in remote sensing images, we propose the remote sensing image dehazing algorithm based on the improved saturated line prior. we first preprocess the initial image, then construct saturated lines based on the saturated line prior theory for hazy image to estimate the initial transmittance, then introduce a compensation factor and the gradient-domain oriented filter to optimize the overall transmittance, which improve the robustness of the proposed algorithm, and finally recover a clear remote sensing image based on the atmospheric scattering model. numerical experimental results show that the proposed algorithm achieves good results for hazy remote sensing images in a variety of scenes.
文章引用:牛贵民, 李喆. 基于改进饱和线先验的遥感图像去雾算法[j]. 应用数学进展, 2024, 13(11): 4855-4869.

1. 引言

随着遥感技术的飞速发展,遥感图像被广泛应用于区域监控、交通监管、资源勘测、农业规划与军事侦查等领域[1] [2]。然而现实世界中复杂多变的环境因素会影响视觉成像系统的性能。在成像过程中,大气云层和空气中的水汽、粉尘等悬浮粒子形成的雾霾常会使目标物的反射光发生散射,导致获取到的图像严重退化,图像边缘和细节信息模糊不清,并且出现颜色失真等现象,极大地限制了图像中有效信息的提取,削弱了遥感图像的应用价值。因此,针对遥感图像的去雾方法研究具有重要的现实意义。

现阶段,研究者们已经提出了许多针对单幅图像的去雾方法[3]-[9]。基于图像复原的去雾方法通过求解大气散射模型中的透射率与大气光值来复原无雾图像。例如,he等人[10]利用统计原理分析晴朗天气条件下的灰度直方图特征,提出了一种基于暗通道先验的图像去雾方法。该算法原理简单,运行效率高,应用广泛,但在处理具有天空区域和白色物体的图像时会出现光晕现象,且处理后的图像整体偏暗。zhu等人[11]提出了一种基于监督学习的图像去雾方法,称为颜色衰减先验,该方法根据饱和度和亮度差异构建一个模型来估计雾霾浓度。berman等人[12]提出了一种全局透射率评估方法,能够同时恢复景深和无雾图像,但这种方法在明亮照明条件下难以有效检测雾度线。tarel等人[13]提出了一种利用中值滤波器变形估算透射率函数的快速去雾方法,但在参数配置不当时会产生光晕效应。sun等人[14]提出了一种基于局部大气光估计的图像去雾方法,解决了大气光估计不足的问题,但复原结果会出现过饱和现象。

基于图像增强的去雾方法不考虑雾天成像机理,通过增强图像的亮度、对比度、梯度等图像特征来突出图像细节,达到降低雾霾影响的目的。其中应用最为广泛的是直方图均衡化算法与retinex算法,直方图均衡化[15] [16]是一种灰度级变换的方法,通过改变灰度直方图来调整灰度级范围,使得图像灰度分布更均匀,这样就可以实现图像整体对比度的增强。kim等人[17]提出了一种自适应直方图均衡算法,该算法通过图像分割在局部取得了良好的效果,但处理后的图像容易产生块效应。retinex技术最初是为了解决非均匀光照条件下图像的增强问题,而现在已经出现多种retinex算法用于去雾目的,例如单尺度retinex (ssr) [18]、多尺度retinex (msr) [19]、带色彩恢复的多尺度retinex (msrcr) [20]等,这些算法在图像去雾领域取得了良好的效果。

近年来,随着深度学习的不断发展,基于深度学习的去雾方法受到了广泛关注。cai等人[21]提出了dehazenet网络,可以估计雾霾图像的透射率。ren等人[22]提出了多尺度卷积神经网络,通过训练该网络来学习透射率与雾霾图像之间的映射。liu等人[23]提出了griddehazenet,该网络利用端到端的卷积神经网络直接去除雾霾。尽管基于深度学习的方法取得了显著的性能,但去雾图像中仍然存在伪影和失真[24]

遥感图像成像更宽,包含信息量更多,更易受到雾霾的影响。为保留更多图像细节,获取高质量清晰遥感图像,本文提出一种基于改进饱和线先验的遥感图像去雾算法,首先引入一种边缘感知平滑锐化滤波器对含雾遥感图像进行预处理以突出图像的细节纹理信息。其次使用改进的饱和线先验估计并优化整体透射率,之后利用现有的方法估计大气光值。最后,通过大气散射模型复原出无雾图像。

2. 预备知识

2.1. 大气散射模型

根据大气散射模型[25],雾天图像退化模型可表示为:

i( x )=j( x )t( x ) ( 1t( x ) )a, (1)

其中 j( x ) 表示含雾图像, i( x ) 表示清晰图像, t( x ) 表示场景透射率, a 表示大气光值。

2.2. 饱和线先验

饱和线先验[26]根据自然图像的局部单色表面假设[27],将自然图像建模为投影表面拼贴的轨迹,表示为:

j( x,y )=r( x,y )l( x,y ), (2)

r( x,y )= r ¯ ,( x,y )ω, (3)

其中, r 表示表面反射率系数的三维矢量, l( x,y ) 是描述亮度大小的一维阴影因子, r ¯ 是在给定局部块 ω 中恒定的三维矢量。

给定一张图像 k( x,y ) ,其对应的饱和度分量 s k ( x,y ) 表示为:

s k ( x,y )=1 min c{ r,g,b } k c ( x,y ) max c{ r,g,b } k c ( x,y ) , (4)

其中 c{ r,g,b } 表示颜色通道。将大气散射模型归一化为大气光值 a c ,可以得到:

i c ( x,y ) a c = j c ( x,y ) a c t( x,y ) ( 1t( x,y ) ). (5)

i n j n 分别为归一化的含雾图像和清晰图像,可将式(5)改写为:

i n ( x,y )= j n ( x,y )t( x,y ) ( 1t( x,y ) ). (6)

由式(4)和式(6)可得归一化含雾图像的饱和度分量,表示为:

s i n ( x,y )=1 min c{ r,g,b } j n c t( x,y ) ( 1t( x,y ) ) max c{ r,g,b } j n c t( x,y ) ( 1t( x,y ) ) , (7)

j n max j n min 分别表示 j n c 的最大和最小颜色分量,则可将式(7)改写为:

s i n ( x,y )=1 j n min ( x,y )t( x,y ) ( 1t( x,y ) ) j n max ( x,y )t( x,y ) ( 1t( x,y ) ) . (8)

将式(8)重新排列,可获得:

s i n ( x,y )=1 j n min ( x,y )t( x,y ) ( 1 s j n ( x,y ) )( 1t( x,y ) ) j n max ( x,y )t( x,y ) ( 1t( x,y ) ) s j n ( x,y )( 1t( x,y ) ) j n max ( x,y )t( x,y ) ( 1t( x,y ) ) . (9)

由式(6)可知,在不同的颜色通道中存在相同的透射率 t ,因此 i n c j n c 的最大颜色分量位于相同的颜色通道中,表示为:

i n max ( x,y )= j n max ( x,y )t( x,y ) ( 1t( x,y ) ), (10)

其中 i n max i n c 的最大颜色分量。同样的,记清晰图像的饱和度分量为:

s j n ( x,y )=1 j n min ( x,y ) j n max ( x,y ) . (11)

变形为:

1 s j n ( x,y )= j n min ( x,y ) j n max ( x,y ) . (12)

将式(10)与式(12)代入式(9)可得:

s i n ( x,y )=1 j n min ( x,y ) j n max ( x,y ) s j n ( x,y )( 1t( x,y ) ) i n max ( x,y ) . (13)

化简为:

s i n ( x,y )= s j n ( x,y ) s j n ( x,y ) 1t( x,y ) i n max ( x,y ) . (14)

根据hsv色彩空间的定义,设亮度分量为最大色彩分量,即 v i n ( x,y )= i n max ( x,y ) ,则可将式(14)改写为:

s i n ( x,y )= s j n ( x,y ) s j n ( x,y ) 1t( x,y ) v i n ( x,y ) . (15)

在局部单色表面假设下, s j n 在局部块中是恒定的,记为 s ^ j n ,此外,设透射率 t 为局部常数,记为 t ^ 。那么对于给定的局部块 ω ,将式(15)改写为:

s i n ( x,y )= s ^ j n s ^ j n 1 t ^ v i n ( x,y ) . (16)

k= s ^ j n ( t ^ 1 ), (17)

b= s ^ j n , (18)

式(16)可改写为:

s i n ( x,y )=k v i n 1 ( x,y ) b, (19)

其中 v i n 1 ( x,y )=1/ v i n ( x,y ) k为斜率,b为截距。当计算得到kb后,即可直接推导出对应局部块的透射率为:

t ^ =k/b 1. (20)

综上所述,将式(19)描述的 s i n ( x,y ) v i n 1 ( x,y ) 之间的线性关系称为饱和线先验。利用该先验,可将透射率的估计问题转化为饱和线的构造问题,饱和线的构造基于局部像素块中 s i n ( x,y ) v i n 1 ( x,y ) 的分布特性来实现。

2.3. 平滑锐化图像滤波器

平滑锐化图像滤波器(smoothing sharpening image filter, ssif) [28]是一种带有边缘感知功能的滤波器,由deng等人于2021年提出。研究者们通过定义一个引导补丁插值模型来开发一种新型平滑锐化滤波器。

对于给定的一个图像块h,ssif在其中的引导补丁插值可定义为

j h ( q )= μ h sign( ϕ h ) α h ( g h ( q ) v h ), (21)

其中q表示像素的位置, j h 为滤波后的输出, g h 为引导图像。 μ h 为原始图像的均值, v h 为引导图像的均值, α h 为一个正参数。对于ssif,确定 α h 的值至关重要,其可以用式(22)表示为:

α h = 1 2 ( | ϕ h | σ h 2 ε ( | ϕ h | σ h 2 ε ) 2 4κε σ h 2 ε ), (22)

其中, σ h 是输入图像块的方差, ε 是用于控制锐化增益的自定义参数。 κ 的大小决定是否进行平滑或锐化操作:当 κ<1 时进行平滑操作,当 κ>1 时进行锐化操作,当 κ=1 时不进行操作。

为了实现整张图像的滤波操作,对于每个补丁使用式(22)计算参数 α h ,之后进行加权平均操作,表示为:

j( p )=i( p ) h=1 n ω h α h h=1 n ω h ( 1 α h ) μ h , (23)

其中p表示像素的位置, ω h 是权重因子,表示为:

ω h = c h 1 ( σ h 2 s σ ¯ 2 ) , (24)

其中, c h 是保证 h=1 n ω h =1 的归一化因子。s是一个预定义的尺度参数, σ ¯ 2 是整幅图像方差 σ k 2 的平均值。

3. 本文算法

基于饱和线先验理论的去雾算法鲁棒性强,去雾效果自然且易于实现,但是该算法的去雾效果受场景信息的复杂度直接影响。对于某些图像,复杂的场景信息会导致饱和线构造失败,直接影响后续的去雾操作,进而导致处理后的图像产生光晕伪影以及信息损失等问题。针对上述问题,本文提出一种基于改进饱和线先验的去雾方法,在去除雾霾的同时保留更多图像场景信息。

3.1. 预处理

对于初始含雾图像,本文引入ssif滤波器进行预处理,表示为

i s =ssif( i ), (25)

其中i为初始含雾图像, i s 为滤波后图像, ssif( ) 为平滑锐化图像滤波算子。通过这种方式,放大了雾霾与场景物体之间的差异并保留更多边缘信息,提高了算法的整体性能。

3.2. 透射率的求解与优化

根据饱和线先验理论,当给定一个局部块 ω ,其对应的饱和度分量 s i n ( x,y ) 与亮度分量的倒数 v i n 1 ( x,y ) 在像素的整体分布上呈现出近似的线性关系。然而,这些像素并不完全位于一条直线上,并且存在偏离直线的像素。在某些极端情况下,这些偏离像素的干扰会变得很强,导致构造的饱和线无法使用。因此,为了在这些具有挑战性的区域中构造良好的饱和线,有必要在构造前进行像素选择。

图1所示,本文可视化了像素选择以更好地说明如何选择可靠的像素。为简单起见,本文考虑7个正线像素和1个偏离像素的情况,将像素 p i 和像素 p j 形成的斜率表示为 k ( i,j ) 。由于饱和度 s i n ( x,y ) 的取值范围为 [ 0,1 ] ,而透射率t的取值范围为 ( 0,1 ) ,根据式(16),饱和线斜率k的取值范围为 ( 1,0 ) 。因此,对于图像块中的任意两个像素,如果这两个像素都位于饱和线,直线的斜率取值则必须在 ( 1,0 ) 中,否则斜率有可能会超出取值范围。因此,给定一个局部图像块,取该图像块中的任意一个像素作为参考像素,其他像素可以根据它们与参考像素形成的直线的斜率分为两类:(1) 斜率在 ( 1,0 ) 范围内的像素;(2) 斜率在(−1, 0)范围外的像素。使用前一类像素所占的比例作为判断,可以有效区分所选参考像素是否位于饱和线上。当以位于饱和线上的像素 p 5 作为参考像素时,其他像素可分为 { p 1 , p 2 , p 3 , p 4 , p 6 , p 7 } { p 8 } 两类,只有 k ( 5,8 ) 不在 ( 1,0 ) 的范围内;而当以偏离的像素 p 8 作为参考像素时,其他像素可分为: { p 1 , p 2 , p 3 } { p 4 , p 5 , p 6 , p 7 } ,有 k ( 4,8 ) k ( 5,8 ) k ( 6,8 ) k ( 7,8 ) 不在(−1, 0)范围内。因此,对于 p 5 ,前一类别像素的占比为7/8;对于 p 8 ,前一类别像素的占比为3/8。综上所述,当选取的参考像素位于饱和线上时,符合条件的像素占比更大。因此,占比越大,表示选取该参考像素构建饱和线的可靠性越高。通过这样的像素选择,可以有效滤除大多数偏离像素,从而构造可靠的饱和线。

(a) (b)

figure 1. schematic diagram of saturated line construction

1. 饱和线构造示意图

根据上述观察,对于在半径为r的图像块 ω 中的一个像素 ( x i , y i ) ,符合斜率要求的像素数量的对应比例可表示为:

p( x i , y i )= 1 n j=1 n f ( s i n ( x i , y i ) s i n ( x j , y j ) v i n 1 ( x i , y i ) v i n 1 ( x j , y j ) ), (26)

其中n表示图像块 ω 中像素的总数, f( · ) 是一个函数,对于在 ( 1,0 ) 范围内的输入返回1,否则返回0。像素选择的标准定义为:

{ ( x i , y i )h,p( x i , y i ) p 0 , ( x i , y i )h,p( x i , y i )< p 0 , (27)

其中h表示所选像素的集合, p 0 为预设参数。为了让构造的饱和线利用更多图像块中优势区域的信息而不失可靠性,本文设置参数 p 0 =0.5

最后,利用最小二乘法得到饱和线,其表达式为:

k( x,y )= ( ( x j , y j )h v i n 1 ( x j , y j ) s i n ( x j , y j ) ) n h v ¯ i n 1 s ¯ i n ( ( x j , y j )h v i n 1 ( x j , y j ) v i n 1 ( x j , y j ) ) n h ( v ¯ i n 1 ) 2 , (28)

b( x,y )= s ¯ i n k v ¯ i n 1 , (29)

其中 n h h的像素数, s ¯ i n v ¯ i n 1 分别表示 s i n ( x i , y i ) v i n 1 ( x i , y i ) 的平均值。

当饱和线构造成功后,根据式(20)可直接求得对应图像块的透射率为:

t l =1 k( x,y ) b( x,y ) , (30)

其中kb分别表示饱和线的斜率和截距。

此外,将饱和线的长度l定义为:

l= 1 k 2 ( max ( x j , y j )h v i n 1 ( x j , y j ) min ( x j , y j )h v i n 1 ( x j , y j ) ). (31)

为了构建可靠的饱和线,除了对于斜率k的约束,所选择的像素数量 n h 和饱和线长度l需要满足以下条件:

n h n ^ , (32)

l l ^ , (33)

其中, n ^ l ^ 为两个预设参数。当这两个条件都满足时,则可以成功构建饱和线。为保证饱和线的基本性能,保留更多有利的图像信息,本文设置参数 n ^ =10 l ^ =0.1

虽然饱和线先验适用于大多数遥感雾霾场景,但其在白色与近白色区域内会失效。因此本文引入了广泛用于产生初始透射率的边界约束[29]来为这些失效区域提供必要的透射率以保证算法在这些区域内的去雾性能。对于任意一个含雾像素,我们考虑 c 颜色通道中的情况,其中 c{ r,g,b } ,给定下边界 b 0 和上边界 b 1 ( b 0 =[ 20,20,20 ] b 1 =[ 300,300,300 ] ),设 b 0 c b 1 c 分别表示下边界 b 0 和上边界 b 1 的颜色通道。边界约束的目的是获取去雾像素到达给定的下边界 b 0 c 或上边界 b 1 c 时所对应的透射率。那么对于获取的透射率,其在三个颜色通道中的最大值表示使去雾像素恰好在一个颜色通道中到达下边界 b 0 或上边界 b 1 的透射率。这种情况下对应的透射率可以表示为:

t b ( x,y )= max c{ r,g,b } ( max( a c i c ( x,y ) a c b 0 c , a c i c ( x,y ) a c b 1 c ) ). (34)

为了与局部透射率恒定假设保持一致,将式(34)表示为:

t ^ b ( x,y )= max ( x i , y i )ω( x,y ) t b ( x i , y i ), (35)

其中 ω( x,y ) 表示以像素 ( x,y ) 为中心的局部块。边界约束的引入可以有效提高本文算法可靠性。将使用饱和线先验和边界约束获得的透射率定义为:

t f ( x,y )={ t l ( x,y )(32),(33) t ^ b ( x,y )(32),(33) . (36)

考虑到白色与近白色区域中极低的透射率容易产生严重的噪声放大,本文设置一个下限来限制所获得的透射率,表示为

t fm ( x,y )=max( t f ( x,y ), t min ), (37)

其中 t min t l μ% 最低透射率值的平均值。 t l 中的最低值通常与场景中亮白色区域的透射率相对应,将这些值作为透射率的下界,既可以抑制白色与近白色区域的噪声放大,又可以有效避免对其他区域的去雾性能造成损害。本文从 t l 中的5%最低值导出 t min ,即 μ=5

对于某些极端场景,过高的场景复杂度会直接影响整体的去雾效果进而导致最终成像产生整体偏暗的问题。因此,本文在式(37)的基础上引入补偿因子 λ 对透射率进行补偿,表示为:

t r ( x,y )= t fm ( x,y ) λ, (38)

其中 λ=0.05 。补偿因子的引入可以有效提高最终成像的视觉感知效果,进而让获得的图像更具应用价值。除此之外,由于本文算法假设透射率局部恒定,这可能会导致最终成像产生光晕伪影。因此,本文利用梯度域导向滤波器[30]对得到的透射率图进行优化,表示为:

t ^ r ( x,y )= g g ( t r ( x,y ) ), (39)

其中 g g ( ) 表示梯度域导向滤波器算子。

3.3. 基于改进饱和线先验的去雾

figure 2. the flowchart of the proposed method

2. 本文算法流程图

根据大气散射模型,为了求解清晰无雾图像,除了场景透射率,还需要对大气光值a进行估计。目前,已经有多种估计大气光值a的方法。事实上,这些方法估计的大气光值在大多数场景中差异不大,因此本文通过文献[31]中的方法估计a。根据公式1,在得到优化的场景透射率 t ^ r 与大气光值a后,去雾图像则可以计算为

j( x,y )= i s ( x,y )a t ^ r ( x,y ) a. (40)

针对饱和线先验算法出现的信息丢失与光晕伪影等问题,本文首先使用ssif滤波器对初始含雾图像进行预处理,在放大雾霾与场景物体间差异的同时保留了更多图像边缘信息,为后续的去雾操作提供鲁棒性更高的含雾图像;其次引入补偿因子与梯度域导向滤波器对饱和线先验算法进行改进,从而提高透射率的估计精度,优化算法的整体去雾效果;此外,本文还通过文献[31]中的方法估计大气光值;最后,利用大气散射模型复原清晰去雾图像。本文算法流程图如图2所示。

4. 实验结果及分析

4.1. 实验环境

本文使用matlab2019a软件进行全部实验,电脑操作系统为windows10,硬件平台为intel(r) core(tm) i5-7300hq cpu @2.50ghz处理器、16gb ram。

4.2. 实验结果与分析

现阶段,还没有公开可用的含雾遥感图像数据集可用于遥感图像去雾。为验证算法在多种场景下的有效性,本文选取aid数据集[32]中的多场景遥感图像来构成实验数据集。首先,在不同场景中选取100张真实含雾图像以构建真实遥感数据集,其次,选取60张清晰遥感图像并添加雾霾以构建合成遥感数据集。对于真实遥感数据集,本文选取8幅图像作为测试图像进行实验,原始含雾图像如图3所示。对于合成遥感数据集,本文选取6幅图像作为测试图像进行实验,未加雾清晰图像如图4所示。

(a) image01 (b) image02 (c) image03 (d) image04

(e) image05 (f) image06 (g) image07 (h) image08

figure 3. test images of different scenarios (real remote sensing dataset)

3. 不同场景测试图像(真实遥感数据集)

(a) image09 (b) image10 (c) image11

(d) image12 (e) image13 (f) image14

figure 4. test images of different scenes (synthetic remote sensing dataset)

4. 不同场景测试图像(合成遥感数据集)

4.2.1. 主观评价

本文选取dcp [10]、dehazenet [21]、slp [26]以及rop [33]四种方法与本文算法进行对比,分别对测试图像进行去雾以比较算法的去雾性能。图5图6为真实含雾遥感图像的去雾效果对比图,图7为合成含雾遥感图像的去雾效果对比图。

根据图5图6的对比结果可以看出,dcp方法与dehazenet方法虽然在不同的场景都可以有效地去除含雾图像中的雾,但是得到的去雾图像明显偏暗,影响视觉效果。slp算法的去雾效果明显且未出现明显偏暗的情况但损失了部分细节纹理信息,不利于后续的应用。rop算法在场景中的部分区域中产生了明显失真且不能完全去除场景中的雾。相较于其他算法,本文算法去雾效果明显,处理后的图像细节纹理丰富、色彩保留自然、视觉效果良好,在整体上优于其他对比方法。

(a) 含雾图像 (b) dcp (c) dehazenet

(d) slp (e) rop (f) ours

figure 5. comparison of the dehazing effect of different methods (image01)

5. 不同方法去雾效果对比图(image01)

(a) 含雾图像 (b) dcp (c) dehazenet

(d) slp (e) rop (f) ours

figure 6. comparison of the dehazing effect of different methods (image05)

6. 不同方法去雾效果对比图(image05)

根据图7的对比结果可以看出,rop算法不能很好地去除场景中的雾,去雾效果不明显。dcp算法产生了偏暗的问题,影响视觉效果。dehazenet算法产生了明显的色偏问题且损失了图像的部分纹理信息。slp算法去雾效果较好,但不能很好地保留边缘细节信息;相较于其他算法,本文算法具有更高的去雾性能,避免了颜色失真的情况,在整体上也能较好地保留图像纹理信息,取得了良好的视觉感知效果。综合以上分析,本文提出的算法对真实含雾遥感图像与合成含雾遥感图像都取得了更好的去雾效果。

(a) 含雾图像 (b) dcp (c) dehazenet

(d) slp (e) rop (f) ours

figure 7. comparison of the dehazing effect of different methods (image11)

7. 不同方法去雾效果对比图(image11)

4.2.2. 客观评价

为了避免视觉带来的误差,更直观清楚地判断出算法的去雾性能,本文又采用定量评估的方式来验证提出算法的有效性。对于真实含雾图像,本文使用fade [34]、piqe [35]以及ceiq [36]作为图像去雾效果的客观评价标准。fade是一种用于感知图像中雾霾量多少的指标,分数越低表示雾霾量越低;piqe是一种基于感知特征的无参考图像质量评估指标,分数越低表示其图像质量更高;ceiq是一种基于对比度增强的图像质量评价指标,分数越高表示图像质量越高。对于合成含雾图像,本文使用psnr与ssim两种指标作为图像去雾效果的客观评价标准。psnr是最普遍的一种图像客观评价指标,它反映了图像的失真程度和噪声水平,psnr值越大则说明图像噪声越低;ssim是用于评估两幅图像相似度的指标,分数越高表示图像质量越高。

table 1. evaluation metrics results of different algorithms in multiple scenarios (real hazy remote sensing images)

1. 不同算法在多种场景下的评价指标结果(真实含雾遥感图像)

dcp

dehazenet

slp

rop

ours

image01

fade

0.4263

0.3663

0.2927

0.3575

0.2503

piqe

36.5473

34.3469

29.5817

30.1866

25.5607

ceiq

2.7839

3.0346

3.2261

3.1828

3.3109

image02

fade

0.3646

0.3604

0.2541

0.3756

0.2231

piqe

22.8840

21.3512

20.2159

20.3067

16.6649

ceiq

3.2518

3.3027

3.2966

3.3059

3.4088

image03

fade

0.3362

0.5543

0.2542

0.3193

0.2220

piqe

31.5253

35.8144

28.6278

29.1695

22.9514

ceiq

3.1874

3.0497

3.4549

3.4458

3.5335

image04

fade

0.3097

0.2907

0.2028

0.2137

0.1704

piqe

20.9827

21.0159

14.8920

13.6465

11.8866

ceiq

2.4344

2.4071

3.2119

3.2786

3.3085

image05

fade

0.4643

0.4018

0.3067

0.5098

0.2537

piqe

36.4992

37.3234

30.3190

31.4429

20.6593

ceiq

2.9758

3.0877

3.3481

3.3209

3.43153

image06

fade

0.4563

0.4160

0.2811

0.4649

0.2549

piqe

29.0915

26.7888

22.8041

24.6148

19.4586

ceiq

3.2948

3.3817

3.5290

3.4528

3.6810

image07

fade

0.5540

0.4632

0.3162

0.3657

0.2587

piqe

41.3077

39.0018

30.8095

28.4678

23.9342

ceiq

2.9305

3.1512

3.4274

3.3873

3.4353

image08

fade

0.2560

0.2452

0.2225

0.2711

0.1857

piqe

19.1179

18.5807

17.9218

17.0856

16.5242

ceiq

3.2370

3.2860

3.3513

3.3825

3.4624

表1展示了不同算法对于真实含雾遥感图像处理的评价指标结果。由表1可知由本文算法处理后的图像各项指标相较其它算法更优,说明本文算法处理后的图像整体质量更高,视觉感知效果更好。表2展示了不同算法对于合成含雾遥感图像处理的评价指标结果。由表2可知由本文算法处理后的图像失真程度更低,结构相似度更高,图像复原质量更高。综合以上分析,本文算法在面对真实含雾遥感图像与合成含雾遥感图像时都取得了良好的去雾效果。

table 2. evaluation metrics results of different algorithms in multiple scenarios (synthetic hazy remote sensing images)

2. 不同算法在多种场景下的评价指标结果(合成含雾遥感图像)

dcp

dehazenet

slp

rop

ours

image09

psnr

18.1015

17.8962

19.1598

17.3455

21.0029

ssim

0.8014

0.7238

0.7760

0.7964

0.8355

image10

psnr

15.7364

14.7873

17.7273

19.4234

19.7840

ssim

0.7945

0.7922

0.8192

0.8475

0.8529

image11

psnr

22.2121

19.7747

22.2506

13.5076

23.9134

ssim

0.8909

0.8093

0.8858

0.7435

0.8986

image12

psnr

23.2244

20.9966

22.3613

13.6334

23.5514

ssim

0.8666

0.7849

0.8591

0.7321

0.8994

image13

psnr

20.3868

19.8465

19.6563

11.6335

20.4212

ssim

0.7920

0.8200

0.8371

0.59051

0.8761

image14

psnr

16.0113

17.2631

18.7794

18.3515

19.7826

ssim

0.7270

0.7572

0.7346

0.7257

0.7641

5. 结论

本文对开放的遥感卫星图像数据集中不同场景的图像进行去雾研究。考虑到遥感图像的成像特点,本文提出一种基于改进饱和线先验的遥感图像去雾算法,可以有效去除遥感图像中的雾。首先,本文引入ssif滤波器对图像进行预处理以保留更多图像边缘信息并放大雾霾与场景物体之间的差异。其次,为避免最终成像产生亮度偏低与光晕伪影等问题,本文在传统饱和线先验算法的基础上引入补偿因子对透射率进行优化并利用梯度域导向滤波器细化整个透射率图,提升了算法的鲁棒性。此外,利用现有的方法估计大气光值。最后,使用大气散射模型复原出无雾图像。大量数值实验表明,本文算法在主观与客观评价方面都优于其他对比方法,取得了良好的去雾性能。

参考文献

[1] 张云佐, 郭威, 蔡昭权, 等. 联合多尺度与注意力机制的遥感图像目标检测[j]. 浙江大学学报(工学版), 2022, 56(11): 2215-2223.
[2] 周晨, 刘磊. 基于分形维度的林业遥感图像树种分类识别[j]. 计算机仿真, 2022, 39(2): 212-216.
[3] kumari, a. and sahoo, s.k. (2023) an effective and robust single-image dehazing method based on gamma correction and adaptive gaussian notch filtering. the journal of supercomputing, 80, 9253-9276.
[4] bi, g., si, g., zhao, y., qi, b. and lv, h. (2022) haze removal for a single remote sensing image using low-rank and sparse prior. ieee transactions on geoscience and remote sensing, 60, 1-13.
[5] yang, s., cui, g. and zhao, j. (2021) remote sensing image uneven haze removal based on correction of saturation map. journal of electronic imaging, 30, article 063033.
[6] ding, x., wang, y. and fu, x. (2022) an image dehazing approach with adaptive color constancy for poor visible conditions. ieee geoscience and remote sensing letters, 19, 1-5.
[7] song, y., zhao, j. and shang, c. (2023) a multi-stage feature fusion defogging network based on the attention mechanism. the journal of supercomputing, 80, 4577-4599.
[8] zhang, k., ma, s., zheng, r. and zhang, l. (2022) uav remote sensing image dehazing based on double-scale transmission optimization strategy. ieee geoscience and remote sensing letters, 19, 1-5.
[9] li, z., duan, p., hu, s., li, m. and kang, x. (2022) fast hyperspectral image dehazing with dark-object subtraction model. ieee geoscience and remote sensing letters, 19, 1-5.
[10] he, k.m., sun, j., et al. (2009) single image haze removal using dark channel prior. 2009 ieee conference on computer vision and pattern recognition, miami, 20-25 june 2009, 1956-1963.
[11] zhu, q.s., mai, j.m., et al. (2015) a fast single image haze removal algorithm using color attenuation prior. ieee transactions on image processing, 24, 3522-3533.
[12] berman, d., treibitz, t. and avidan, s. (2016) non-local image dehazing. 2016 ieee conference on computer vision and pattern recognition, las vega, 27-30 june 2016, 1674-1682.
[13] tarel, j. and hautiere, n. (2009) fast visibility restoration from a single color or gray level image. 2009 ieee 12th international conference on computer vision, kyoto, 29 september-2 october 2009, 2201-2208.
[14] sun, w., wang, h., sun, c., guo, b., jia, w. and sun, m. (2015) fast single image haze removal via local atmospheric light veil estimation. computers & electrical engineering, 46, 371-383.
[15] stark, j.a. (2000) adaptive image contrast enhancement using generalizations of histogram equalization. ieee transactions on image processing, 9, 889-896.
[16] kim, j.-y., kim, l.-s., et al. (2001) an advanced contrast enhancement using partially overlapped sub-block histogram equalization. ieee transactions on circuits and systems for video technology, 11, 475-484.
[17] kim, t.k., paik, j.k. and kang, b.s. (1998) contrast enhancement system using spatially adaptive histogram equalization with temporal filtering. ieee transactions on consumer electronics, 44, 82-87.
[18] jobson, d.j., rahman, z. and woodell, g.a. (1997) properties and performance of a center/surround retinex. ieee transactions on image processing, 6, 451-462.
[19] rahman, z., jobson, d.j. and woodell, g.a. (1996) multi-scale retinex for color image enhancement. proceedings of 3rd ieee international conference on image processing, lausanne, 19 september 1996, 1003-1006.
[20] jobson, d.j., rahman, z. and woodell, g.a. (1997) a multiscale retinex for bridging the gap between color images and the human observation of scenes. ieee transactions on image processing, 6, 965-976.
[21] cai, b., xu, x., jia, k., qing, c. and tao, d. (2016) dehazenet: an end-to-end system for single image haze removal. ieee transactions on image processing, 25, 5187-5198.
[22] ren, w., liu, s., zhang, h., pan, j., cao, x. and yang, m. (2016) single image dehazing via multi-scale convolutional neural networks. in: lecture notes in computer science, springer, 154-169.
[23] liu, x., ma, y., shi, z. and chen, j. (2019) griddehazenet: attention-based multi-scale network for image dehazing. 2019 ieee/cvf international conference on computer vision, seoul, 27 october-2 november 2019, 7313-7322.
[24] li, r., pan, j., he, m., li, z. and tang, j. (2020) task-oriented network for image dehazing. ieee transactions on image processing, 29, 6523-6534.
[25] narasimhan, s.g. and nayar, s.k. (2002) vision and the atmosphere. international journal of computer vision, 48, 233-254.
[26] ling, p., chen, h., tan, x., jin, y. and chen, e. (2023) single image dehazing using saturation line prior. ieee transactions on image processing, 32, 3238-3253.
[27] berman, d., treibitz, t. and avidan, s. (2020) single image dehazing using haze-lines. ieee transactions on pattern analysis and machine intelligence, 42, 720-734.
[28] deng, g., galetto, f., alnasrawi, m. and waheed, w. (2021) a guided edge-aware smoothing-sharpening filter based on patch interpolation model and generalized gamma distribution. ieee open journal of signal processing, 2, 119-135.
[29] meng, g., wang, y., duan, j., xiang, s. and pan, c. (2013) efficient image dehazing with boundary constraint and contextual regularization. 2013 ieee international conference on computer vision, sydney, 1-8 december 2013, 617-624.
[30] kou, f., chen, w., wen, c. and li, z. (2015) gradient domain guided image filtering. ieee transactions on image processing, 24, 4528-4539.
[31] tang, k., yang, j. and wang, j. (2014) investigating haze-relevant features in a learning framework for image dehazing. 2014 ieee conference on computer vision and pattern recognition, columbus, 23-28 june 2014, 2995-3002.
[32] xia, g., hu, j., hu, f., shi, b., bai, x., zhong, y., et al. (2017) aid: a benchmark data set for performance evaluation of aerial scene classification. ieee transactions on geoscience and remote sensing, 55, 3965-3981.
[33] liu, j., liu, r.w., sun, j. and zeng, t. (2023) rank-one prior: real-time scene recovery. ieee transactions on pattern analysis and machine intelligence, 45, 8845-8860.
[34] choi, l.k., you, j. and bovik, a.c. (2015) referenceless prediction of perceptual fog density and perceptual image defogging. ieee transactions on image processing, 24, 3888-3901.
[35] venkatanath, n., praneeth, d., et al. (2015) blind image quality evaluation using perception based features. 2015 twenty first national conference on communications, mumbai, 27 february-1 march 2015, 1-6.
[36] yan, j., li, j. and fu, x. (2019) no-reference quality assessment of contrast-distorted images using contrast enhancement. arxiv:1904.08879.
为你推荐
凯发娱乐官网的友情链接
网站地图