基于卷积神经网络加速的计算鬼成像物体识别仿真
Simulation of Computational Ghost Image Object Recognition Accelerated by Convolutional Neural Networks
DOI: 10.12677/mos.2024.134385, PDF, HTML, XML,   
作者: 陈耀东:上海理工大学光电信息与计算机工程学院,上海;上海理工大学光子芯片研究院,上海;华怡林:上海理工大学光子芯片研究院,上海
关键词: 计算鬼成像卷积神经网络物体识别Computational Ghost Imaging Convolutional Neural Network Object Recognition
摘要: 鬼成像是利用两束光的空间相关性来进行成像的一种新的成像方式,具有成像方式灵活,探测器易获取等优势。作为其中的重要分支,计算鬼成像直接采用随时间变化的散斑照明图像,利用多个散斑模式和穿过物体后的总光子计数之间的关联性来计算恢复图像,可结合单像素相机,在遥感、光学加密以及边缘检测等方向发挥重要作用,同时使得通过计算机仿真鬼成像结果成为可能。然而,为了获取高的成像质量,切换大量散斑图是必要的,这阻碍了它在快速成像和图像处理等方面的应用,因此,快速获取物体信息成为计算鬼成像的核心。基于此,本文设计了一个带有全连接层的四层卷积神经网络(CNN)用于计算鬼成像图像的快速识别,可以在一些物体识别比成像更重要的场景下(如医学图像诊断)发挥作用。通过对差分鬼成像的数值仿真结果的分析,证明了所提出的卷积神经网络可以在散斑数量是相对于完整测量的1/20的情形下,实现对低分辨率物体的接近1的识别准确度。使得CGI物体识别的等效采样率约为0.05,这大大提高了计算鬼成像中的信息获取速度。这种先于成像过程的卷积神经网络可广泛应用于与经典和量子鬼成像及其他计算成像方案如单像素成像,散射成像和无透镜成像等。
Abstract: Ghost imaging is a new paradigm of imaging that harness the spatial correlation of the two separated light fields for reconstruction of an unknown image. It has the advantages of flexible imaging strategies and easily accessible imaging equipment. As an important branch, computational ghost imaging (CGI) directly uses time-varying speckles to illuminate anobject, utilizing the correlation between multiple speckle patterns and the total photon counts after passing through the object to calculate the restored the image. It can be combined with a single pixel camera to play an important role in various areas such as remote sensing, optical encryption, and edge detection, meanwhile providing the possibility to simulate the ghost imaging process through computer calculation. However, in order to achieve a high image contrast, it is necessary to switch a large number of speckle patterns, which hinders its application in fast imaging and image processing. Therefore, quickly obtaining object information has become the core of computational ghost imaging. Therefore, quickly obtaining object information has become the core of computing ghost imaging. Here, we designed a four-layer convolutional neural network (CNN) with fully connected layers for fast recognition of ghost imaging images, which can be effective in the scenarios (medical image diagnosis for instance) that recognition of objects is more important than imaging. Through the analysis of numerical simulation results of differential ghost imaging under different speckle numbers, we proved that the proposed convolutional neural network can achieve near-unity recognition accuracy of the low-resolution objects restored with a 1/20th of the number of speckles relative to the complete measurement. This leads to an equivalent sampling ratio of approximately 0.05 for the CGI object recognition, which greatly improves the speed of information acquisition in computing ghost imaging. This recognition method prior to the imaging process can be widely used in classical and quantum ghost imaging as well as other computation imaging schemes like single-pixel imaging, scattering imaging and lensless imaging.
文章引用:陈耀东, 华怡林. 基于卷积神经网络加速的计算鬼成像物体识别仿真[J]. 建模与仿真, 2024, 13(4): 4249-4257. https://doi.org/10.12677/mos.2024.134385

1. 引言

传统的成像方式是利用透过物体或者被物体散射的光在胶片或焦平面探测器阵列上呈现物体的图像。这对成像系统有着一定的限制,如需要在照明物体的波长范围内存在具有空间分辨率的相机。在很多特定波长的成像系统中,空间分辨的相机可能比较昂贵或者其工作带宽(刷新速率)较低。而鬼成像是通过两束分离的光的空间相关性获取图像信息的方式[1]。在鬼成像系统中,只需要用一个无空间分辨率的桶探测器接受与物体作用的信号路光子,而另一路不与物体作用的参考光子被一个有空间分辨的探测器接收。单独检索桶探测器的光子数和参考光子的空间分布都不能得到物体信息,只有关联两个探测器的信号,才能恢复物体图像[2]。因此,鬼成像实际上是一种间接成像,对于物体端的探测器要求极大降低,有望通过具有极高带宽的单像素探测器实现成像。鬼成像起源于两束光子的量子纠缠[3],最初被认为是一种量子关联特性。后续基于经典光源随机散斑光场的鬼成像实验[4]证明了鬼成像的实现过程并不一定需要纠缠光源,经典光场的随机涨落同样也可以实现鬼成像。鬼成像已经在多种光源下实现成像,包括热光源[5] [6],x射线[7],高斯–谢尔模式光束[8]等。

实际上,参考光路随机散斑光场可以用计算方式实现,并非一定需要实验获取,这就形成了计算鬼成像(CGI)的基本原理[9]。利用空间光调制器或数字微镜阵列等可编程器件产生所需的散斑光场去照明未知物体,再用对应散斑光场和穿过物体后的光子计数即可恢复图像。计算鬼成像进一步简化了鬼成像的实验光路,并使得通过计算机仿真鬼成像的结果成为可能。此外,计算鬼成像还可以实现光学加密[10]、边缘检测[11]等任务以及经过特殊设计使其具有对湍流的鲁棒性[12],极大拓宽了其在光信息处理和遥感[13]等领域的应用范围。然而,计算鬼成像对散斑数量有明显的要求,无论是使用随机散斑、傅里叶散斑或者哈达玛散斑等形式的散斑照明[14] [15],都需要足够多的散斑以恢复高质量图像。这极大阻碍了高速计算鬼成像及基于CGI的信息处理的发展。

提高计算鬼成像的信息获取速度是该领域的核心问题。一方面,通过改变数据采集方法可以提高计算鬼成像重建速度,如采用压缩感知的稀疏采样[16] [17]或者特殊散斑结构(如哈达玛散斑等) [18]可以加速计算鬼成像的重建。另一方面,采用优化的重建算法如迭代鬼成像[19] [20],对数和指数鬼成像重建算法[21]等也能缩短图像重建时间。深度学习[22] [23]作为一种用于数据建模、数据分类和决策的机器学习方法,已经在图像识别、图像去噪等方面表现出强大的功能[24]。在散射成像和相位成像等方向上,深度学习也被用来优化成像质量[25]。近几年来,利用深度学习,已经实现了计算鬼成像的采样次数减少[26],成像质量优化[27]以及端到端的桶探测器结果直接重构图像[28]。在目标识别比目标成像更为重要的情形下(如在生物医学中的大量图片的医学检测判断),可以通过深度学习算法直接进行高准确度的物体识别从而大大降低采样数量。这里,本文提出一种带有全连接层的四层卷积神经网络(CNN)用于计算鬼成像图像的快速识别,通过对差分鬼成像[9]的数值仿真结果的分析,证明了所提出的卷积神经网络能对通过极少量散斑恢复的低分辨率图像实现高精度识别。对于一个100×100像素的图片,只需要切换500次散斑,即可实现98%的图片识别准确率,相当于CGI的等效采样比可以达到0.05,极大提升了基于CGI物体识别的信息获取速度。需要说明的是,该方法虽然是基于计算鬼成像的数值模拟进行的原理验证,其应用范围却不局限在CGI方向上,这种先于成像的物体识别方法同样可推广到量子鬼成像中实现加速[29],在其他计算成像领域如单像素成像[30]、无透镜成像[31]以及散射成像[32]中也能发挥作用,未来有望在病理分析、材料研究、生命科学和遥感等领域得到应用。

2. 原理与方法

为了实现基于CNN加速的计算鬼成像物体快速识别,需要通过仿真产生不同散斑次数下的重构图像作为本文所搭建网络的训练集,随后用训练好的网络模型实现重构图像的分类操作,因此本文的模型整体框架如图1所示:

Figure 1. The schematic of the CNN

1. 卷积神经网络原理图

2.1. 计算鬼成像原理及实现方式

计算鬼成像是在基于经典鬼成像的基础上,通过计算散斑与对应光子计数的二阶关联实现目标物体的成像,假设散斑的结构分布为 E i ( x,y ) ,散斑照射物体后的出射光子数为 B i ,则成像表达式可由二阶关联函数[32]得到:

G ( 2 ) ( x,y )= E i ( x,y ), B i E i ( x,y ) B i (1)

式中 为平均值运算符,i表示第i张散斑图像,通过对上式展开化简可得重构图像 T ^ ( x,y ) 表示为:

T ^ ( x,y )= 1 N i=1 N ( B i B i )( E i ( x,y ) E N ( x,y ) ) (2)

其中N为所使用的散斑个数,由于鬼成像的信噪比较低,差分鬼成像作为对成像结果的优化方法而提出,其不同之处在于采用信号方差值代替原本的信号值,它的重构表达式可以表示为:

T ^ DGI ( x,y )= 1 N i=1 N ( δ B i δ B i )( E i ( x,y ) E N ( x,y ) ) (3)

其中 δ B i = B i B i R i S i S i 为一张散斑的强度之和,由于差分运算能够有效抑制背景噪声,因此差分鬼成

像的成像信噪比相对传统鬼成像有所提高。

本章在基于上述理论基础上选择差分鬼成像的成像方式来实现计算鬼成像的仿真实验,通过Matlab实现成像过程,采用的图像为100 * 100像素大小的字母图片,该图片无需经过任何预处理操作,随机散斑的产生通过生成与图片相同大小的随机矩阵来实现,并将这些散斑矩阵分别与目标图像做乘法运算得到近似于实验中桶探测器所收集的光子数序列,最后将序列中的光子数分别与对应的散斑图像进行差分运算便可实现目标图像的重构。

2.2. 网络模型构建

本章采用CNN [33] [34]网络作为成像结果的训练和分类模型的构建。CNN是一种用于图像处理的监督学习神经网络,该网络在处理二维图像的问题上,特别是在识别位移、缩放及其他形似扭曲不变性的应用上具有良好的鲁棒性和运算效率。该网络结构主要包括三大部分:卷积层、池化层和全连接层,其中卷积层一般用来提取输入图像的局部特征生成相应的特征图,该特征图经过池化层特征映射后会实现特征图的缩放,因此池化层主要用来去除不必要特征以减小特征图大小,全连接层则将提取的图像特征进行类别的映射,常用于输入图像的分类处理。

所构建的CNN网络结构由四层卷积层及三层全连接层组成,模型示意图如图2所示:

Figure 2. Schematic diagram of CNN structure

2. CNN结构示意图

网络输入采用256 * 256大小的输入图片,经过3 * 3大小填充值为1的卷积核卷积后得到尺寸不变的特征图像,该特征图被2 * 2大小步长为2的最大池化层进行2倍缩放后输出128 * 128大小的特征映射,为了加入非线性因素影响,对该映射采用ReLU函数进行非线性处理,ReLU函数定义如下:

ReLU( x )=max( x,0 ) (4)

该函数能对特征图中的像素值进行线性修正,将值控制在非负范围内,提高模型的非线性能力以学习更复杂的任务,经过非线性处理后的特征图作为第二层的输入继续特征提取直到最后一层。第一层中的卷积核深度设置为64,后续卷积核个数以4倍大小减少,特征图大小每经过一层实现2倍缩放,因此最终卷积输出结果为16 * 16大小,通道数为1的特征图像,随后将该图像进行一维展开作为全连接层的输入,实现6种字母图片的分类,最终的输出结果由softmax函数处理。

使用交叉熵损失函数来计算模型预测结果与实际结果间的差异,对于多分类问题该损失函数表达式为:

Loss= 1 N i c=1 M y ic log( p ic ) (5)

其中N为样本数量,M为类别数量, y ic 代表第i个样本对于第c类的真实概率, p ic 代表第i个样本为第c类的概率分布。通过该函数可以求解网络的损失值,并使用Adam优化器对网络中的参数实现更新优化:

W t = W t1 +ΔW (6)

其中 W t 表示t时刻的权重值, W t1 表示 t1 时刻的权重值, ΔW 为参数变化值,通过多次迭代训练得到的网络参数配置如表1所示。用该网络实现对不同散斑次数下的计算鬼成像结果分类,以得到能进行正确分类的最少散斑次数。

Table 1. Model parameters for neural network training

1. 神经网络训练的模型参数

类目参数

取值

Epoch

100

input_size

256

batch_size

50

loss function

CrossEntropyLoss()

optimizer

Adam()

learning rate

0.01

3. 仿真结果

3.1. 不同散斑次数下的CGI效果仿真

在上述的仿真设置中,散斑个数是可变化的值,不同的散斑数量对相同目标进行重构会对成像对比度造成影响,本章进行了相应的测试,分别采用 N=300,500,1000,1500 四种散斑个数对字母A进行重构,其成像结果如图3所示。

从图中可以看出,散斑数量越大成像对比度越清晰,反之成像效果越差,因此成像过程中所使用的散斑个数是最终重构结果的决定性因素。由于过多的散斑数量在实际实验中会严重影响鬼成像的重构效率,因此寻找最少采样次数同时又不降低成像质量是至关重要的。

Figure 3. Imaging results with different numbers of speckle patterns

3. 不同散斑个数的成像结果

3.2. CNN分类结果及分析

根据上述的模型参数,实现了CNN网络结构的搭建,训练集采用六种字母图片(A, B, C, D, E, F),每种共有50张鬼成像仿真结果,每张由1500次散斑重构得到,分批次进行训练,每个批次50张,一共迭代100次,通过Adam优化器更新网络参数,训练后得到的网络模型具有对这六类成像结果的分类能力。

在网络训练好之后,采用只需500次散斑重构的成像结果作为测试集,虽然该重构结果对比度远低于训练所用的图片,但该卷积神经网络依然表现出优越的分类结果。测试网络效果时,采用每类10张图像,将其输入训练好的网络结构,得到的实验结果如图4所示:

Figure 4. Confusion matrix for CNN models

4. CNN模型的混淆矩阵

该结果表明本文的CNN网络具有分类能力,且分类结果准确率达到98%,具有极高的鲁棒性。

最后,进一步深入研究了该网络对于不同散斑次数重构的图片的识别效果,以字母B图像的CGI识别为例,模拟了散斑次数与分类准确率之间的关系,散斑次数从50到1500的范围内每隔50进行取值,将这些重构结果输入网络中得到每种散斑数目下的准确率,分类准确率与所使用随机散斑个数的关系如图5所示:

Figure 5. The relationship between the accuracy and the number of speckle patterns

5. 准确率与散斑数目关系

由结果可以看到,随着散斑数目的增加,网络分类的准确率也在提升,当采样次数 N=400 时,分类准确率达到98%, N>400 时,准确率接近100%,这说明最低采样次数为400时,重构图像的分辨率就足以被正确识别出来,因此通过该结论可以实现快速的计算鬼成像重构。

4. 总结与展望

本文基于四层CNN深度网络模型,实现了对计算鬼成像结果的分类,分类准确率达到98%,随后以一类图片为例,用该模型研究了散斑数目也就是重构图像的成像对比度对于网络分类精度的影响,结果表明采用鬼成像重构的图像作为网络的训练集是合适的,利用这种高分类准确率的CNN的确可以加速cgi的图像识别,而且恢复图像的散斑数量越多识别准确率越高,当散斑数量到达500张时基本饱和,该条件下的图像特征足以使网络进行高精度识别。相比于采用成像方式,CNN分类能够有效解决应用中的问题,比如材料中结构分子的分类,医学中的病理诊断以及细胞生物学中的分类问题等,这些领域在成像中并不重要,需要通过分类来提取有效信息。

本文方法为减少鬼成像中的数据采集时间提供了一个有效的解决方案,在实际的计算鬼成像中,由于采集的光子数与理想计数之间存在一定差距,这会造成重构的图像对比度受到影响,CNN作为一种能够进行图像优化的模型无论在量子成像中还是在计算成像领域都能起到很好的效果。因此将深度学习引入鬼成像中,通过优化模型来实现成像质量的提升,在一定程度上发挥了神经网络在鬼成像中的作用。

参考文献

[1] Paul-Antoine, M., Ermes, T., et al. (2017) Ghost Imaging Using Optical Correlations. Laser & Photonics Reviews, 12, Article 1700143.
https://doi.org/10.1002/lpor.201700143
[2] 吴自文, 邱晓东, 陈理想. 关联成像技术研究现状及展望[J]. 激光与光电子学进展, 2020, 57(6): 1-17.
[3] Pittman, T.B., Shih, Y.H., Strekalov, D.V., et al. (1995) Optical Imaging by Means of Two-Photon Quantum Entanglement. Physical Review A, 52, R3429.
https://doi.org/10.1103/PhysRevA.52.R3429
[4] Bennink, R.S., Bentley, S.J. and Boyd, R.W. (2002) “Two-Photon” Coincidence Imaging with a Classical Source. Physical Review Letters, 89, Article 113601.
https://doi.org/10.1103/PhysRevLett.89.113601
[5] Valencia, A., Scarcelli, G., D’Angelo, M., et al. (2005) Two-Photon Imaging with Thermal Light. Physical Review Letters, 94, Article 063601.
https://doi.org/10.1103/PhysRevLett.94.063601
[6] Zhang, D., Zhai, Y.H., Wu, L.A., et al. (2005) Correlated Two-Photon Imaging with True Thermal Light. Optics Letters, 30, 2354-2356.
https://doi.org/10.1364/OL.30.002354
[7] Pelliccia, D., Rack, A., Scheel, M., et al. (2016) Experimental X-Ray Ghost Imaging. Physical Review Letters, 117, Article 113902.
https://doi.org/10.1103/PhysRevLett.117.113902
[8] Liu, X., Wang, F., Zhang, M., et al. (2015) Experimental Demonstration of Ghost Imaging with an Electromagnetic Gaussian Schell-Model Beam. Journal of the Optical Society of America A, 32, 910-920.
https://doi.org/10.1364/JOSAA.32.000910
[9] 赵生妹, 赵亮, 郭辉, 等. 鬼成像原理与进展研究[J]. 南京邮电大学学报(自然科学版), 2021, 41(1): 65-77.
[10] Kong, L.J., Li, Y., Qian, S.X., et al. (2013) Encryption of Ghost Imaging. Physical Review A, 88, Article 013852.
https://doi.org/10.1103/PhysRevA.88.013852
[11] Liu, X.F., Yao, X.R., Lan, R.M., et al. (2015) Edge Detection Based on Gradient Ghost Imaging. Optics Express, 23, 33802-33811.
https://doi.org/10.1364/OE.23.033802
[12] Meyers, R.E., Deacon, K.S. and Shih, Y. (2011) Turbulence-Free Ghost Imaging. Applied Physics Letters, 98, Article 111115.
https://doi.org/10.1063/1.3567931
[13] Erkmen, B.I. (2012) Computational Ghost Imaging for Remote Sensing. Journal of the Optical Society of America A, 29, 782-789.
https://doi.org/10.1364/JOSAA.29.000782
[14] Zhang, Z., Ma, X. and Zhong, J. (2015) Single-Pixel Imaging by Means of Fourier Spectrum Acquisition. Nature Communications, 6, Article No. 6225.
https://doi.org/10.1038/ncomms7225
[15] Wang, L. and Zhao, S. (2016) Fast Reconstructed and High-Quality Ghost Imaging with Fast Walsh-Hadamard Transform. Photonics Research, 4, 240-244.
https://doi.org/10.1364/PRJ.4.000240
[16] Katz, O., Bromberg, Y. and Silberberg, Y. (2009) Compressive Ghost Imaging. Applied Physics Letters, 95, Article 131110.
https://doi.org/10.1063/1.3238296
[17] Hu, X., Suo, J., Yue, T., et al. (2015) Patch-Primitive Driven Compressive Ghost Imaging. Optics Express, 23, 11092-11104.
https://doi.org/10.1364/OE.23.011092
[18] Zhao, Y.N., Chen, L.S., Chen, L.Y., et al. (2024) Computational Ghost Imaging with Hybrid Transforms by Integrating Hadamard, Discrete Cosine, and Haar Matrices. arxiv:2405.03729.
[19] Wang, W., Wang, Y, P., Li, J., et al. (2014) Iterative Ghost Imaging. Optics Letters, 39, 5150-5153.
https://doi.org/10.1364/OL.39.005150
[20] Wang, W., Hu, X., Liu, J., et al. (2015) Gerchberg-Saxton-Like Ghost Imaging. Optics Express, 23, 28416-28422.
https://doi.org/10.1364/OE.23.028416
[21] Liu, H.-C. (2020) Imaging Reconstruction Comparison of Different Ghost Imaging Algorithms. Scientific Reports, 10, Article No. 14626.
https://doi.org/10.1038/s41598-020-71642-2
[22] LeCun, Y., Bengio, Y. and Hinton, G. (2015) Deep Learning. Nature, 521, 436-444.
https://doi.org/10.1038/nature14539
[23] Shinde, P.P. and Shah, S. (2018) A Review of Machine Learning and Deep Learning Applications. 2018 Fourth International Conference on Computing Communication Control and Automation, Pune, 16-18 August 2018.
https://doi.org/10.1109/ICCUBEA.2018.8697857
[24] Jiao, L. and Zhao, J. (2019) A Survey on the New Generation of Deep Learning in Image Processing. Ieee Access, 7, 172231-172263.
https://doi.org/10.1109/ACCESS.2019.2956508
[25] Barbastathis, G., Ozcan, A. and Situ, G. (2019) On the Use of Deep Learning for Computational Imaging. Optica, 6, 921-943.
https://doi.org/10.1364/OPTICA.6.000921
[26] Rizvi, S., Cao, J., Zhang, K., et al. (2020) DeepGhost: Real-Time Computational Ghost Imaging via Deep Learning. Scientific Reports, 10, Article No. 11400.
https://doi.org/10.1038/s41598-020-68401-8
[27] Lyu, M., Wang, W., Wang, H., et al. (2017) Deep-Learning-Based Ghost Imaging. Scientific Reports, 7, Article No. 17865.
https://doi.org/10.1038/s41598-017-18171-7
[28] Wang, F., Wang, H., Wang, H., et al. (2019) Learning from Simulation: An End-to-End Deep-Learning Approach for Computational Ghost Imaging. Optics Express, 27, 25560-25572.
https://doi.org/10.1364/OE.27.025560
[29] Moodley, C., Ruget, A., Leach, J., et al. (2023) Time-Efficient Object Recognition in Quantum Ghost Imaging. Advanced Quantum Technologies, 6, Article 2200109.
https://doi.org/10.1002/qute.202200109
[30] 肖许意, 陈刘雅, 张学智, 等. 单像素成像及其概率统计分析综述[J]. 激光与光电子学进展, 2021, 58(10): 230-241.
[31] Boominathan, V., Robinson, J.T., Waller, L., et al. (2022) Recent Advances in Lensless Imaging. Optica, 9, 1-16.
https://doi.org/10.1364/OPTICA.431361
[32] Postnov, D.D., Tang, J., Erdener, S.E., et al. (2020) Dynamic Light Scattering Imaging. Science Advances, 6, eabc4628.
https://doi.org/10.1126/sciadv.abc4628
[33] Dong, C., Loy, C.C., He, K., et al. (2015) Image Super-Resolution Using Deep Convolutional Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38, 295-307.
https://doi.org/10.1109/TPAMI.2015.2439281
[34] Sun, Y., Zhang, W., Gu, H., et al. (2019) Convolutional Neural Network Based Models for Improving Super-Resolution Imaging. IEEE Access, 7, 43042-43051.
https://doi.org/10.1109/ACCESS.2019.2908501