基于DnCNN的图像来源检验
Image Source Verification Based on DnCNN
DOI: 10.12677/csa.2025.153052, PDF, HTML, XML,    国家科技经费支持
作者: 李俊瑶:江苏警官学院刑事科学技术系,江苏 南京;侯欣雨:公安部物证鉴定中心,北京
关键词: DnCNNNoiseprint模式噪声来源检验DnCNN Noiseprint Pattern Noise Source Verification
摘要: 本文基于DnCNN网络提出了一种图像来源检验方法,可以通过提取图像中的噪声残差特征(NP特征),捕获设备特有的传感器噪声模式,并结合峰值相关能量值(PCE)的计算来判断图像的来源设备或检测篡改行为。通过在多个数据集上的实验验证,该方法能够有效区分不同型号和同一型号的不同设备拍摄的图像。研究结果表明,基于DnCNN的图像来源检验方法为数字图像取证提供了一个高效且可靠的技术手段,在公共安全、司法鉴定和媒体真实性验证等领域具有广泛的应用前景。
Abstract: This paper proposes an image source verification method based on the DnCNN network, which extracts noise residual features (NP features) from images to capture device-specific sensor noise patterns. By calculating the Peak Correlation Energy (PCE), the method can determine the source device of the image or detect tampering behaviors. Experimental results on multiple datasets validate that the proposed method effectively distinguishes images captured by different devices of the same model as well as by different models. The findings indicate that the DnCNN-based image source verification method provides an efficient and reliable technological means for digital image forensics, with broad applications in public safety, forensic identification, and media authenticity verification.
文章引用:李俊瑶, 侯欣雨. 基于DnCNN的图像来源检验[J]. 计算机科学与应用, 2025, 15(3): 1-7. https://doi.org/10.12677/csa.2025.153052

1. 引言

近年来,随着数字图像的广泛应用和编辑技术的迅猛发展,图像真实性问题逐渐成为社会关注的焦点。在司法取证、新闻报道、公共安全等领域,验证数字图像的来源和真实性显得尤为重要。尤其是在人工智能生成内容(AIGC)逐渐普及的背景下,图像的篡改和伪造变得更加隐蔽,传统的图像取证技术在应对复杂编辑手段时面临严峻挑战。

图像来源检验的核心在于利用成像设备在拍摄过程中引入的独特噪声模式(即设备指纹)来识别图像的拍摄设备或检测篡改行为[1]。这种噪声特征主要体现在图像的高频信号中。传统方法通常依赖于手工设计特征,如基于统计学的噪声模式分析或频域特征提取。然而,这些方法往往对图像的压缩、裁剪或其他编辑操作缺乏鲁棒性,难以应对复杂的实际场景。

深度学习技术的发展为图像来源检验提供了新的研究思路。其中,基于深度卷积神经网络(CNN)的模型通过自动学习图像的高维特征,展现出优于传统方法的性能和适应性。DnCNN (Denoising Convolutional Neural Network)作为一种经典的图像去噪模型,最初被设计用于从图像中去除噪声,但其对图像高频噪声信号的高效提取能力使其在图像取证领域表现出重要的潜力。通过将DnCNN应用于图像来源检验,可以有效提取图像的噪声残差,捕捉设备指纹特征,为图像真实性验证提供支持。

本研究基于DnCNN模型,提出了一种高效的图像来源检验方法。该方法通过提取图像中的噪声残差,利用深度学习网络捕获设备特有的噪声模式,并结合分类算法进行设备来源识别或篡改检测。与传统方法相比,该方法能够自动提取更具辨别力的特征,并对常见的图像编辑操作具有更强的鲁棒性。本文的研究不仅丰富了图像来源检验的技术手段,同时也为数字图像取证的实际应用提供了新的解决方案。

2. Noiseprint图像特征

Noiseprint (简称NP)是一种可用于图像来源识别和篡改检验的图像传感器噪声残差特征[2]。通过提取图像中由设备硬件特性产生的独特噪声模式(即设备的“数字指纹”),能够准确判断图像是否来源于特定设备,同时检测图像是否经过编辑或篡改。广泛应用于图像来源认证、数字取证、伪造图像检测以及媒体版权保护等领域,能够有效保护数字证据的真实性和可靠性[3]。可以通过卷积神经网络(CNN)可以提取数字图像噪声残差,如图1所示。

Figure 1. Noise residuals associated with the image

1. 图像关联的噪声残差

3. 基于DnCNN的NP特征提取

DnCNN是基于用于大规模识别的超深卷积网络(VGGNet)提出的适合提取噪声残差的卷积神经网络[4]。与传统基于统计学或频域分析的方法相比,DnCNN可以通过深度学习网络自动提取设备特有的传感器噪声模式(NP特征),显著提高特征提取的鲁棒性和辨别力。这种能力使得基于DnCNN的方法能够更好地应对图像压缩、裁剪等常见编辑操作的干扰,同时在设备来源检验任务中表现出卓越的准确性。

其网络结构主要是由卷积层、批归一化层和激活层(Relu)级联组成。对于每个卷积层,采用3 × 3尺寸的卷积核,步长设置为1,层数设置为17,每个卷积层卷积核的数量设置为64,用于提取图像中的局部高频特征,如图2所示。批归一化层通过对输出特征归一化,改善了梯度消失问题,并加速了模型收敛速度。ReLU激活函数的引入进一步提升了网络的非线性表达能力,使其能够更精准地提取设备的指纹特征。此外,DnCNN采用残差学习策略,通过拟合图像的噪声残差,而非原始图像,显著提升了特征提取的效率和模型训练的稳定性。

Figure 2. Denoising convolutional neural network (DnCNN) architecture

2. 去噪神经网络(DnCNN)结构

本文中的DnCNN优化采用了Adam优化器,初始学习率为0.001,并在训练过程中动态调整以确保模型收敛。同时使用均方误差(MSE)作为损失函数,以准确拟合噪声残差特征。训练数据集包括多个设备拍摄的图像,结合高斯噪声添加和随机裁剪等数据增强策略,进一步提高了模型的泛化能力。对提取的残差图像进行滤波和增强,如图3所示,可以得到相机设备指纹(NP特征),从而进行相机特征相关性检测。

Figure 3. NP device fingerprint extraction process

3. NP设备指纹提取流程

4. 相关性检测

分别计算样本和检材的峰值相关能量值(PCE) [5],如公式1所示,确定图像来源设备是否同一,如图4所示。

Figure 4. Correlation Verification Process Based on PCE

4. 基于PCE的相关性检验流程

PCE( x,y )= C XY 2 ( 0,0 ) 1 MN| A | ( k,l )A C XY 2 ( k,l )

其中, C XY 表示二维矩阵 X,Y 之间的循环互相关函数; X= I q K x Y= W q A 为一个以 ( 0,0 ) 点为中心的方形区域; | A | 表示方形区域的大小。

5. 实验验证

Table 1. PCE values for images captured by the same device

1. 同一设备拍摄的PCE值情况

Canon 750D

Canon EOS 6D Mark II

Canon EOS M6 Mark II

Canon EOS R6

Sony a7r2

Sony ILCE-6000

559

28,798

5651

866

5280

114

370

18,735

2470

5390

7657

45

405

14,436

6736

2982

1640

38

166

12,460

1169

1530

10,865

64

990

38,662

11,318

1448

6657

45

91

8457

5917

4283

9782

40

382

28,252

9230

395

10,631

64

248

42,610

3790

550

11,489

31

137

54,212

1459

510

10,476

85

Table 2. PCE values between different models

2. 不同型号之间的PCE值表

a

设备名称

Canon 750D

Canon EOS 6D Mark II

Canon EOS M6 Mark II

Canon EOS R6

Nikon_D70

Canon 750D

1.8

8.7

−0.0002

0.7

Canon EOS 6D Mark II

1.8

−0.024

10.0

2.1

Canon EOS M6 Mark II

8.7

−0.024

7.5

−2.6

Canon EOS R6

−0.0002

10.0

7.5

−0.1

续表

Nikon_D70

0.7

2.1

−2.6

−0.1

Nikon_D70s

1.9

0.7

−0.0026

3.1

43

Nikon_D90

3.5

1.0

1.2

0.17

9.9

Nikon_D200

−2.7

7.0

2.4

1.4

1.9

Sony a7r2

2.0

57.2

1.2

0.25

2.2

Sony ILCE-6000

12

3.6

0.1

9.4

10.0

b

Nikon_D70s

Nikon_D90

Nikon_D200

Sony a7r2

Sony ILCE-6000

1.9

3.5

−2.7

2.0

12

0.7

1.0

7.0

57.2

3.6

−0.0026

1.2

2.4

1.2

0.1

3.1

0.17

1.4

0.25

9.4

43

9.9

4.5

−0.9

9.6

–.

9.9

1.9

2.2

10.0

9.9

5.1

14.2

15.1

1.9

5.1

−2.45

5.1

2.2

14.2

−2.45

0.47

10.0

15.1

5.1

0.47

Table 3. PCE values for different devices of the same model

3. 相同型号不同设备的PCE值表

Nikon D70

Nikon D70s

Nikon D90

Nikon D200

Canon EOS 6d Mark II

Sony ILCE-6000

27

18.6

23

0.4

0.7

10.6

36.2

17

21.6

2.5

0.5

14

32

14

24.5

8

3.2

11.1

25.1

16.2

21.2

5.7

1.4

8.9

29.4

20

13

0.9

5.5

9.9

21

20.1

17.4

1.8

0.4

12

为了验证该方法的准确性和鲁棒性,使用来自Dresden数据集44台摄像机、来自Socrates数据集的32台、来自Vision数据集的32部、来自Davide Cozzolino提供数据集中的17台,总共使用了来自70个不同型号和19个品牌的125台摄像机,进行训练。自建包括了3个品牌、10种型号共计79张数字图像的数据集进行测试,分别计算同一设备、不同型号设备、同一型号不同设备的PCE值,部分结果如表1表2表3所示。

为进一步验证NP特征的有效性,与Lin等人[6]改进后的PRNU特征利用自建数据集进行比对,两种特征的PCE均值如表4表5所示。

Table 4. PCE values of NP and PRNU features for the same device and different models

4. 同一设备与不同型号设备的NP与PRNU特征PCE值

Canon 750D

Canon EOS 6D Mark II

Canon EOS M6 Mark II

Canon EOS R6

Sony a7r2

Sony ILCE-6000

同一设备

NP

372

27,402

5304

1995

8275

58.4

PRNU

317

22,556

4333

1881

6968

46

不同型号

NP

3.1

9.3

2.1

3.5

8.2

6.7

PRNU

3.3

11.6

2.9

4.4

8.9

7.3

Table 5. PCE values of NP and PRNU features for different individual devices of the same model

5. 相同型号不同个体设备的NP与PRNU特征PCE值

Nikon D70

Nikon D70s

Nikon D90

Nikon D200

Canon EOS 6d Mark II

Sony ILCE-6000

相同型号不同个体相机

NP

28.5

17.7

20.1

3.2

2

11.1

PRNU

29.1

15.2

24.9

3.1

4.5

13.7

6. 实验分析

表1显示了同一设备拍摄的图像PCE值情况。同一设备不同图像的PCE值具有高度一致性。例如,Canon 750D的PCE值范围为370到990,而Sony ILCE-6000的PCE值范围为40到114。这表明,同一设备的NP特征在不同图像中具有较高的稳定性,能够被准确提取和识别。同时,不同设备的PCE值范围存在显著差异,进一步证明了NP特征独特性和在来源检验中的重要作用。

表2为不同设备之间的PCE值情况。整体来看,不同设备间的PCE值明显低于同一设备内的PCE值。例如,Canon 750D与Canon EOS 6D Mark II之间的PCE值为1.8,与Sony ILCE-6000的PCE值仅为12。这表明通过计算NP特征的PCE可以有效区分不同设备拍摄的图像。此外,尽管部分设备间的PCE值相对较高(如Sony a7r2与Canon EOS 6D Mark II的PCE值为57.2),这可能与设备传感器特性接近有关,但总体区分性依然显著。

表3的数据进一步探讨了相同型号不同设备之间的PCE值特征。从实验结果来看,相同型号不同设备之间的PCE值介于同一设备和不同型号设备之间。例如,Nikon D70与Nikon D70s之间的PCE值为18.6,明显低于Nikon D70内部的PCE值(27),但高于不同型号设备之间的PCE值。这说明,即使在相同型号中,不同设备的设备指纹特性依然存在细微差异,能够通过PCE值进行一定程度的区分。

从对比实验的数据分析来看,NP特征在同一设备的来源检验中表现出更高的稳定性和鲁棒性。例如,在Canon EOS 6D Mark II中,NP特征的PCE值达到27,402,而PRNU特征仅为22,556,这表明NP特征对设备指纹的表征更为显著。在不同型号设备的对比中,两种特征的区分能力接近,例如Canon EOS M6 Mark II和Sony ILCE-6000的PCE值分别为9.4和9.3,但NP特征在部分组合中依然展现出更高的差异性。在相同型号的不同设备中,NP特征和PRNU特征的区分能力相近,如Nikon D70和Nikon D70s的PCE值分别为28.7和29.1,表明两种特征在区分设备内部硬件高度相似的情况下均存在一定的局限性。整体而言,NP特征在同一设备和不同型号设备的检验中表现更优,但在区分相同型号不同个体设备时,仍需引入更精细的特征提取方法以提升其性能。

尽管PCE值在同一设备拍摄的图像中表现出较高的稳定性,但在相同型号的不同设备间,其区分能力较为有限。例如,在Nikon D70和Nikon D70s两台设备之间,PCE值为18.6,显著高于不同型号设备之间的PCE值。这种现象表明,对于具有相似硬件特性的设备,PCE方法难以完全捕捉到其微小的指纹差异。其次,在某些设备拍摄的低信噪比图像中,PCE相关性结果波动较大,可能导致误判。例如,Sony ILCE-6000的某些测试图像中,PCE值与其他设备的差异并不显著。这一问题可能源于弱噪声特征相机内部图像处理掩盖,从而降低了PCE方法的判别能力。为提升设备指纹提取与匹配的准确性,后续研究将弥补PCE方法的不足,进一步提升图像来源检验的性能和鲁棒性。

7. 结语

本文基于DnCNN网络提出了一种高效的图像来源检验方法,通过提取图像的噪声残差特征(NP特征)并结合PCE值的计算,验证了设备指纹在图像来源识别中的有效性。实验结果表明,NP特征在同一设备图像的稳定性和不同设备间的区分能力方面优于传统的PRNU特征,特别是在处理不同型号设备和相同型号不同个体设备的图像时,表现出更强的鲁棒性和辨别力。然而,在相同型号不同设备之间的区分中,两种特征均表现出一定的局限性,提示后续研究可以结合更复杂的特征提取和融合方法,以提升模型的性能。

基金项目

中央级公益性科研院所基本科研业务费项目(2021JB017);江苏省高校哲学社会科学研究项目(2023SJYB0461);江苏警官学院科研项目(2021SJYZK02)。

参考文献

[1] 张明旺, 肖延辉, 田华伟, 等. 图像中的设备指纹提取技术研究综述[J]. 激光与光电子学进展, 2020, 57(22): 39-48.
[2] Cozzolino, D. and Verdoliva, L. (2019) Noiseprint: A CNN-Based Camera Model Fingerprint. IEEE Transactions on Information Forensics and Security, 15, 144-159.
[3] 郝昕泽, 肖延辉, 田华伟, 等. 基于样本错配训练的图像PRNU噪声提纯方法[J]. 南京航空航天大学学报, 2020, 52(5): 783-791.
https://doi.org/10.16356/j.1005-2615.2020.05.015
[4] Kai, Z., Zuo, W., Chen, Y., et al. (2016) Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising: IEEE Press.
[5] Goljan, M. (2008) Digital Camera Identification from Images—Estimating False Acceptance Probability. Springer, Berlin, Heidelberg.
https://doi.org/10.1007/978-3-642-04438-0_38
[6] Lin, X. and Li, C.T. (2017) Preprocessing Reference Sensor Pattern Noise via Spectrum Equalization. IEEE Transactions on Information Forensics & Security, 11, 126-140.
https://doi.org/10.1109/TIFS.2015.2478748