2. 四川大学 国家空管自动化系统技术重点实验室,四川 成都 610065
2. National Key Lab. of Air Traffic Control Automation System Technol.,Sichuan Univ.,Chengdu 610065,China
在基于视觉图像信息的监控系统中,有雾图像严重影响到对目标的特征提取,从而无法进行目标检测、目标跟踪等工作。对有雾图像进行去雾处理能有效提高目标检测、跟踪精度,具有十分重要的意义。
当前,图像去雾的方法主要分为两类:基于图像增强的方法和基于大气散射模型的方法。图像增强的方法[1–4]能有效地提高雾天图像的对比度和颜色饱和度,但图像往往出现质量下降。基于大气散射模型的去雾方法成为了近几年图像去雾研究的热点。Fattal[5]使用独立分量分析原有雾图像,通过假定透射率和表面投影在局部区域是不相关的,估算景物的反射率,进而实现场景的复原,但该方法基于颜色统计,对浓雾图像的处理效果不佳。He等[6]提出了暗通道先验估计光线传输透射率,实现雾天图像复原,但是由于该算法建立在暗原色先验基础之上,对于诸如天空、白云等不存在暗原色的明亮区域,其恢复结果往往会出现颜色失真,引入软抠图算法优化透射率时间非常长,并且对浓雾的去雾效果较差。李加元[7]、邢晓敏[8]等提出的分离天空区域,分别估计天空区域与非天空区域的透射率图,可以较好地解决天空区域去雾问题,但对去除浓雾无明显改进,另外需要手动设置阈值,过程繁琐。禹晶等[9]对大气光照进行白平衡,利用快速双边滤波估计大气耗散函数,求解简化的大气散射模型实现图像去雾,然而该方法对白色物体的恢复效果不够理想。Schaul等[10]针对基于大气散射模型去雾方法的缺陷,提出基于近红外图像融合的去雾方法,该方法通过同一场景的可见光与近红外图像融合进行去雾,由于近红外图像容易获取,透雾能力强,且去雾过程不需要借助模型求解,该去雾算法简单有效;并且,为了防止融合图像出现光晕,该算法中采用基于加权最小二乘滤波(weighted least squares, WLS)[11]算法对近红外和可见光图像融合,随着迭代次数的增加及图像尺寸的变大,算法处理时间急剧上升,并且该算法在进行图像融合时未考虑图像中雾浓度,导致融合图像无雾区域出现亮度过饱和现象。程鹏等[12]考虑了雾浓度,根据雾浓度融合近红外和可见光图像,保持了无雾区域的色彩信息,但是,该算法采用简单的加权融合,没有充分利用近红外图像的细节信息,并且采用双边滤波对融合图像进行平滑处理,导致图像中所有的边缘信息丢失。因此,在进行可见光和近红外图像融合时,如何在保证图像去雾质量的前提下,尽可能地提高计算效率非常有意义。
针对文献[10–12]存在的问题,作者提出一种基于雾浓度和脉冲耦合神经网络(pulse coupled neural network, PCNN)[13]的可见光与近红外图像融合去雾方法。首先,为解决融合图像出现亮度过饱和问题,利用暗原色先验统计规律估计出雾浓度分布,根据雾浓度对图像进行分区,根据分区进行不同程度的融合;然后,为解决融合图像虚假轮廓及算法时间长的问题,引入基于PCNN的图像融合算法,在保证融合图像质量的前提下,大幅降低计算量,提升算法速度;最后,引入引导图像滤波(guided image filtering,GIF)[14]对融合图像做平滑处理,在平滑分区边缘的同时保留原图像的边缘信息。
1 雾浓度估计与分区实际场景中,雾并不是布满整张图像,如果直接对整张图像进行去雾处理,会导致无雾区域颜色也随之变化,出现颜色失真。而理想的去雾是在最大限度地保留可见光图像清晰部分的前提下,将模糊不清的有雾部分替换为近红外图像,从而得到一幅符合人眼视觉特性的清晰图像。作者根据雾浓度差异对图像进行分区融合,很好地解决了上述问题。
1.1 基于暗通道先验的雾浓度估计暗通道先验的原理是:对于不含大面积明亮区域的图像,在绝大多数区域内,总会有至少一个颜色通道存在很低像素值的像素存在,也就是说,在这些局部区域内,光强度的最小值接近于零。可以用式(1)计算暗通道
${{J}^{ dark}}(x) = \mathop {\min }\limits_{c \in \{ r,g,b\} } (\mathop {\min }\limits_{y \in \varOmega (x)} ({{J}^{ c}}(y)))$ | (1) |
式中,
一幅有雾图像的数学模型为:
${I}(x) = {J}(x){t}(x) + {A}(1 - {t}(x))$ | (2) |
式中,
有雾图像的透射率
由图1可以看出,有雾图像比晴天图像暗通道亮度明显大。
![]() |
图1 同一场景的晴天与有雾图像及其暗通道 Fig. 1 Sunny and hazing images of the same scene and their dark channel image |
1.2 图像分区
将式(1)求得的暗通道归一化,并设定不同的阈值将图像分为不同雾浓度的区域。图像分区根据式(3)计算:
${Block}(n) = {{I}^{{{im}}}} \cdot {J}_n^{{{dark}}},{T_{n - 1}} < {J}_n^{{{dark}}}(i,j) < {T_n}$ | (3) |
式中:
相对于可见光,近红外图像包含更多的景物细节信息,但近红外图像为灰度图,只含有亮度信息。将近红外与可见光图像融合可以获得一张无雾的彩色图像。由于近红外图像只有单通道信息,可见光图像有3通道信息,作者将可见光图像转化到HSI空间,并将其亮度通道与近红外图像融合。
2.1 近红外图像获取散射光的强度由入射光的两个变量即光的波长
${E_{ s}} \propto \frac{{{E_0}}}{{{\lambda ^4}}}$ | (4) |
由式(4)可以看出,光的散射强度
传统的图像融合算法,如拉普拉斯金字塔、梯度金字塔和比率低通金字塔等均具有层间相关性的缺点,融合后的图像往往出现虚假轮廓。Schaul等[10]采用基于加权最小二乘滤波(WLS)算法[11]得到的融合图像虽然没有虚假轮廓,但随着迭代次数的增加和图像尺寸变大,算法处理时间急剧上升。
为解决融合图像虚假轮廓及算法时间长的问题,作者采用基于脉冲耦合神经网络(PCNN)的多尺度融合算法进行图像融合。用PCNN对图像进行处理时,将每个像素的灰度值作为每个神经元的输入。基于PCNN的图像融合算法步骤如下:
1)对一幅图像
$[{{S}_K}\;{W}_K^\beta ] = {{ SWT}_{N( sym8)}}({{I}_0})$ | (5) |
式中,
2)选取
3)对于主从PCNN网络的每一次迭代,计算从PCNN模型的各个神经元,并将从PCNN神经元的输出反馈到相应主PCNN神经元的链接域中;将所得的PCNN网络输出的一系列多尺度融合图像按Yu等的方法[16]进行重构运算,得到本次迭代的融合图像
4)计算出该次融合图像的信息熵,熵值越大,说明携带的信息量越大;取并行PCNN网络输出图像的信息熵最大值对应图像作为最终的融合结果。
基于PCNN神经网络的方法,通过引入并行PCNN网络形成一个全局连接网络,自动实现两幅图像的融合,由于平稳小波具有线性相位特性,因此,采用平稳小波对图像进行重建的融合结果中不存在边缘移位现象,很好地解决了融合图像虚假轮廓问题。
2.3 边缘平滑由于图像分块,融合后图像不可避免出现拼接缝,现有图像边缘平滑滤波方法例如高斯滤波、中值滤波、双边滤波等均能起到很好的滤波效果,程鹏等[12]利用双边滤波技术对融合图像进行平滑处理,能够消除图像的拼接缝,但是由于对整张图像进滤波,导致除拼接缝以外的景物细节信息丢失。引导图像滤波能够很好地解决上述问题。
引导图像滤波根据引导图像对输入图像进行滤波,具有很好的保持边缘平滑特性。其原理是通过一幅引导图像对输入图像进行滤波,输出的图像在保留输入图像整体特征的同时,能充分获取引导图像的变化细节。将输入图像记为
${{q}_i} = {a_k}{{I}_i} + {b_k},\;\;\forall i \in {{\omega }_k}$ | (6) |
式中,
求取线性因数(
$E({a_k},{b_k}) = \sum\limits_{i \in {{\omega }_k}} {[{{({a_k}{{I}_i} + {b_k} - {{p}_i})}^2} + \varepsilon {a_k}^2]} $ | (7) |
式中,
${a_k} = \frac{{\displaystyle\frac{1}{{{{|}}\omega {{|}}}}\sum\limits_{i \in {{\omega }_k}} {{{I}_i}{{p}_i} - {\mu _k}\overline {{p_k}} } }}{{{\sigma _k}^2 + \varepsilon }}$ | (8) |
${b_k} = {p_k} - {a_k}{\mu _k}$ | (9) |
式中,
${{q}_i} = \frac{1}{{|\omega |}}\sum\limits_{k \in {{\omega }_k}} {({a_k}{{I}_i} + {b_k}) = \overline {{a_i}} {{I}_i} + \overline {{b_i}} } $ | (10) |
式(7)中输入输出差异最小化的条件限制,使输出图像保留了输入图像的总体特征,同时式(6)建立的线性模型,滤波结果能充分获取引导图像的变化细节。引导图像滤波的原理示意图如图2所示。
![]() |
图2 引导图像滤波原理图 Fig. 2 Guide image filtering schematic |
3 实验结果与讨论 3.1 可见光图像暗通道及分块
用MATLAB对算法编程实现,硬件环境为:CPU i7/内存8GB/显卡GTX1080。求解可见光图像暗通道时,选取的块操作的窗口大小为15
![]() |
图3 根据雾浓度分区过程 Fig. 3 Image partition according to haze concentration |
根据基于脉冲耦合神经网络的多尺度融合算法对有雾区域融合,做平稳小波分解时取
进行分区时,
![]() |
图4 滤波效果对比 Fig. 4 Comparison of the filtering results |
3.2 对比其他算法
在He等[6]的单张图像去雾实验中,求取暗通道时选取块操作窗口大小为15
![]() |
图5 去雾效果对比 Fig. 5 Comparison of the dehazing results |
从图5(b)可以看出,He算法存在亮度变暗的缺陷,而且对浓雾的去雾效果并不理想,存在较多的残雾。从图5(c)可以看出,Schaul算法虽然有较好的去雾效果,但对于雾分布不均匀的情况,无雾区域会出现亮度过饱和,图像质量下降,不符合人眼视觉特性。本文算法去雾如图5(d)所示,在取得很好的去雾效果的同时,无雾区域保持可见光图像的色彩特性。
图6是本文算法与其他算法在图像局部区域去雾效果的比较。
由图6(e)和(f)可见,He方法去雾后有雾区域图像严重降质,本文算法去雾后图像更符合人眼视觉特性。由图6(g)和(h)可以看出,对于原图像无雾区域,Schaul算法出现严重颜色失真,本文算法能很好地保持原图像色彩信息。
![]() |
图6 局部区域去雾效果对比 Fig. 6 Local area comparison of the dehazing results |
本文算法对浓雾场景也有优异的表现,如图7所示,He算法几乎获取不到浓雾背后的细节信息,Schaul方法可以复原浓雾的细节信息,但颜色失真较为严重。本文算法在去除浓雾的同时,能很好地保持无雾区域颜色信息。
![]() |
图7 浓雾去雾效果对比 Fig. 7 Comparison of the dehazing results |
表1是各算法针对不同尺寸图像去雾的处理时间。由表1可以看出,本文算法比当前主流去雾算法在速度上有所提升,并且对于尺寸小的图像有明显的速度优势。由于基于PCNN的融合算法相较于基于WLS的融合算法计算复杂度较低;He方法采用软抠图方法精细化透射率计算量较大,算法时间相对较长。
表1 算法运行时间比较 Tab. 1 Comparison of time |
![]() |
表2为通过熵、均值和标准差3个数字图像客观评价指标进行3种算法性能对比。熵值表示图像的信息量,熵值越大表明图像的信息更丰富,则图像较为清晰。同一场景的有雾图像比无雾图像均值高,因此,均值下降表明取得一定的去雾效果。标准差反映各灰度值均值的离散情况,标准差越大,灰度值分布越分散,而灰度值的起伏反映了图像的纹理和边缘信息。
表2 各去雾算法性能比较 Tab. 2 Comparison of dehazing performance |
![]() |
从表2可以看出:本文方法的信息熵、均值以及标准差综合评价优于Schaul方法;Schaul方法虽然取得较大标准差值,但由于不考虑雾浓度,近红外和可见光图像亮度值差异将导致融合图像在无雾区域亮度值发生变化,从而导致该区域颜色失真;He方法虽然有较低的均值,但导致图像亮度下降,图像整体暗淡,不符合人眼视觉特性。
4 结 论为了解决雾天图像清晰化问题,提出了一种基于近红外与可将光融合的去雾方法。首先根据雾浓度对可见光图像进行分区,再结合雾浓度分区和脉冲耦合神经网络融合可见光与近红外图像,最后引入引导图像滤波对融合图像做滤波处理,有效恢复出清晰图像。
与已有的基于图像增强和基于物理模型的去雾算法相比,本文方法具有以下优点:1)采用可见光图像与近红外图像融合去雾的方法简单高效,不需要求解复杂的大气物理模型;2)结合雾浓度分区进行图像融合,能充分利用近红外图像的细节信息,同时能很好地保留无雾区域的颜色信息;3)采用基于PCNN的多尺度图像融合,快速有效,融合图像只有少量光晕伪影;4)引入引导滤波器处理图像,在平滑融合图像光晕以及分区边缘的同时很好地保留了图像原有的边缘信息。但本文算法也有一定的局限性,随着雾浓度分区的增加,算法的复杂度明显增加,无法实现实时性。因此,在有效去雾的前提下,进一步降低算法的复杂度将是下一步工作的研究重点。
[1] |
Stark J A. Adaptive image contrast enhancement using generalizations of histogram equalization[J]. IEEE Transactions on Image Processing, 2000, 9(5): 889-896. DOI:10.1109/83.841534 |
[2] |
Seow M J, Asari V K. Ratio rule and homomorphic filter for enhancement of digital colour image[J]. Neurocomputing, 2006, 69(7/8/9): 954-958. |
[3] |
Kim J H,Sim J Y,Kim C S.Single image dehazing based on contrast enhancement[C]//Proceedings of IEEE International Conference on Acoustics,Speech and Signal Processing.Prague:IEEE,2011:1273–1276.
|
[4] |
Zhou Yan, Li Qingwu, Huo Guanying. Adaptive image enhancement using nonsubsampled contourlet transform domain histogram matching[J]. Chinese Optics Letters, 2014(Suppl): S21002. |
[5] |
Fattal R. Single image dehazing[J]. ACM Transactions on Graphics, 2008, 27(3): 1-9. |
[6] |
He K M,Sun J,Tang X O.Single image haze removal using dark channel prior[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Florida:IEEE,2009:1956–1963.
|
[7] |
Li Jiayuan, Hu Qinwu, Ai Mingyao. Image haze removal based on sky region detection and dark channel prior[J]. Journal of Image and Graphics, 2015, 20(4): 514-519. [李加元, 胡庆武, 艾明耀. 结合天空识别和暗通道原理的图像去雾[J]. 中国图形图像学报, 2015, 20(4): 514-519.] |
[8] |
Xing Xiaomin, Liu Wei. Haze removal for single traffic image[J]. Journal of Image and Graphics, 2016, 21(11): 1440-1447. [邢晓敏, 刘威. 雾天交通场景中单幅图像去雾[J]. 中国图形图像学报, 2016, 21(11): 1440-1447.] |
[9] |
Yu Jin, Li Dapeng, Liao Qingmin. Physics-based fast single image fog re-moval[J]. Acta Automatica Sinica, 2011, 37(2): 143-149. [禹晶, 李大鹏, 廖庆敏. 基于物理模型的快速单幅图像去雾方法[J]. 自动化学报, 2011, 37(2): 143-149.] |
[10] |
Schaul L,Fredembach C,Süsstrunk S.Color image dehazing using the near-infrared[C]//Proceedings of IEEE International Conference on Image Processing.Cairo:IEEE,2009:1629–1632.
|
[11] |
Farbman Z,Fattal R,Lischinski D,et al.Edge-preserving decompositions for multi-scale tone and detail ma-nipulation[C]//Proceedings of the International Conference on Computer Graphics and Interactive Techniques.New York:ACM.2008:1–10.
|
[12] |
Chen Peng, Lang Shiyong. Image dehaze method based on near infrared[J]. Journal of Sichuan University (Engineering Science Edition), 2013, 45(2): 155-159. [程鹏, 兰时勇. 基于近红外的图像去雾方法[J]. 四川大学学学报(工程科学版), 2013, 45(2): 155-159.] |
[13] |
Johnson J L, Padgett M L. PCNN models and application[J]. IEEE Transactions on Neural Networks, 1999, 10(3): 480-498. DOI:10.1109/72.761706 |
[14] |
He K M, Sun J, Tang X O. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397-1409. DOI:10.1109/TPAMI.2012.213 |
[15] |
Fredembach C,Süsstrunk S.Colouring the near infrared[C]//Proceedings of Color Imaging Conference.Portland:IS&T,2008:176–182.
|
[16] |
Yu Ruixing, Zhu Bing, Zhang Ke. A new method of image fusion based on PCNN[J]. Opto-Electronic Engineering, 2008, 35(1): 126-130. [余瑞星, 朱冰, 张科. 基于PCNN的图像融合新方法[J]. 光电工程, 2008, 35(1): 126-130.] |