基于主密度峰聚类的图像复制–粘贴篡改检测方法
Copy-Move Forgery Detection Based on Main Density Peak Clustering
DOI: 10.12677/aam.2026.153106, PDF, HTML, XML,    科研立项经费支持
作者: 龙大强*, 钟域可:广东财经大学统计与数据科学学院,广东 广州;蔺 聪:广东财经大学统计与数据科学学院,广东 广州;信息技术教育部重点实验室(中山大学),广东 广州
关键词: 复制–粘贴篡改检测SIFT描述子分层匹配主密度峰聚类Copy-Move Forgery Detection SIFT Descriptors Hierarchical Feature Matching Main Density Peak Clustering
摘要: 随着图像篡改技术的不断发展,复制–粘贴篡改形式日益多样化,给篡改检测与定位带来了新的挑战。针对这一问题,本文提出了一种基于主密度峰聚类的图像复制–粘贴篡改检测方法。该方法以SIFT关键点为基础,通过降低对比度阈值与图像尺度标准化提升关键点提取数量,并采用分层特征匹配策略获取可靠的关键点匹配关系。在此基础上,引入主密度峰聚类算法对匹配关键点进行自适应分组,有效刻画关键点之间的空间结构关系。随后,结合仿射矩阵估计与几何一致性验证,实现对复制–粘贴篡改区域的准确定位。在FAU和MICC-F600数据集上的实验结果表明,本文方法在Precision、Recall和指标上均取得了较为稳定且均衡的检测性能。定量的评价指标与可视化结果验证了该方法在不同分辨率和不同篡改场景下的有效性。
Abstract: With the continuous development of image manipulation techniques, copy-move forgery has become increasingly diverse, posing new challenges to forgery detection and localization. To address this issue, this paper proposes a copy-move image forgery detection method based on main density peak clustering. The proposed method is built upon SIFT keypoints. By reducing the contrast threshold and applying image scale normalization, the number of extracted keypoints is increased, and a hierarchical feature matching strategy is adopted to obtain reliable keypoint correspondences. On this basis, a main density peak clustering algorithm is introduced to adaptively group the matched keypoints, effectively capturing the spatial structural relationships among them. Subsequently, affine transformation estimation combined with geometric consistency verification is employed to accurately localize copy-copy forged regions. Experimental results on the FAU and MICC-F600 datasets demonstrate that the proposed method achieves stable and well-balanced performance in terms of Precision, Recall, and F1. Both quantitative evaluations and visual comparisons verify the effectiveness of the proposed method under different image resolutions and forgery scenarios.
文章引用:龙大强, 蔺聪, 钟域可. 基于主密度峰聚类的图像复制–粘贴篡改检测方法[J]. 应用数学进展, 2026, 15(3): 294-305. https://doi.org/10.12677/aam.2026.153106

1. 引言

随着计算机技术的发展以及社交媒体平台的广泛普及,图像的编辑与传播门槛显著降低。通过简单的图像处理工具,用户即可对图像内容进行篡改并迅速在网络上传播,这在一定程度上威胁了信息的真实性,并可能对舆论引导、司法取证和新闻传播等领域造成不良影响。因此,图像篡改取证技术逐渐成为学术界和工业界关注的研究热点。其中,复制–粘贴作为一种常见且隐蔽性较强的篡改方式,通过在同一图像中复制并粘贴局部区域以篡改图像内容,具有较高的检测难度。

针对复制–粘贴篡改问题,研究者提出了多种检测方法,主要包括基于块的方法、基于关键点的方法以及基于深度学习的方法。基于块的方法虽研究较早,但在高分辨率图像下计算复杂度较高,且对旋转、缩放等几何变换的鲁棒性有限。相比之下,基于关键点的方法能够有效降低计算开销,并具备一定的几何不变性,但在篡改区域较小或纹理较为平滑时,关键点数量不足,检测性能容易下降。近年来,深度学习方法在该领域取得了较好效果,但其对大规模标注数据的依赖较强,且在跨场景应用中的泛化能力仍有待提升。

本文主要贡献:

(1) 设计了一种结合关键点特征与密度峰主导聚类的复制–粘贴篡改检测框架。通过将主密度峰聚类聚类MDPC+ (Main Density Peak Clustering)算法[1]应用于关键点匹配结果,实现了关键点的自适应聚类,为篡改区域定位提供了有效支撑。

(2) 探索了将MDPC+聚类算法引入复制–粘贴篡改检测流程中的可行性,通过对匹配关键点进行自适应聚类,为后续篡改区域的几何一致性验证与定位提供了有效支撑。

(3) 通过实验验证了所构建方法的检测性能。在实验中,所提出的检测流程能够较为准确地定位复制–粘贴篡改区域,证明了该方法在实际应用中的可行性。

2. 相关工作

复制–粘贴篡改检测方法通常可分为基于块的方法、基于关键点的方法以及基于深度学习的方法。

早期的复制–粘贴篡改检测研究主要基于块的方法进行展开。该类方法通常通过将图像划分为大量重叠的局部块,并比较块之间的相似性来发现潜在的复制关系。为描述图像块的局部特征,研究者提出了多种变换域与矩特征表示方式,如Fridrich等人[2]基于离散余弦变换的块特征、Muhammad [3]等人的离散小波变换、Emam [4]等人提出的极坐标复指数变换、Mahdian [5]等人模糊矩不变量以及Ryu [6]等人Zernike矩等。这些方法在一定程度上增强了对旋转、缩放等图像操作的适应能力。在特征匹配阶段,由于需要在全图范围内搜索相似块,计算复杂度成为制约该类方法应用的重要因素。针对这一问题,一些研究通过近似匹配和快速搜索策略提升检测效率,如Cozzolino [7]等人的基于PatchMatch的快速匹配方法以及Bi [8]等人的相干敏感哈希策略。尽管相关研究不断改进特征设计与搜索机制,但基于块的方法在高分辨率图像下仍面临较大的计算负担,同时对复杂几何变换的鲁棒性仍存在一定局限。

相较于基于块的方法,基于关键点的检测方法通过仅关注图像中的显著结构区域,有效降低了特征数量和计算复杂度。该类方法通常在图像中提取局部不变特征,并通过关键点匹配来建立复制关系。SIFT特征因其良好的尺度和旋转不变性,被广泛应用于复制–粘贴篡改检测任务中[9]-[11]。随后,研究者引入了多种改进的关键点检测与描述方法,如Silva [12]等人的SURF特征、Yang [13]等人KAZE特征以及Mukherjee [14]等人的AKAZE特征等,以进一步提升检测效率和稳定性。在匹配策略方面,传统的2NN方法在复杂篡改场景中容易受到干扰,因此出现了一系列扩展匹配策略,如G2NN [15]、RG2NN [16]和I2NN [10],以更好地刻画多区域复制关系。为保证匹配结果的可靠性,研究者通常结合RANSAC对关键点之间的几何一致性进行验证,并通过聚类方法对匹配点进行分组处理,如Wang等人[10]使用DBSCAN算法Lin [17]等人使用的谱聚类算法。总体而言,基于关键点的方法在计算效率和几何鲁棒性方面具有明显优势,但在纹理较少或压缩较严重的图像中,关键点数量不足的问题仍然存在。

近年来,深度学习技术被广泛引入复制–粘贴篡改检测领域。该类方法通常通过构建卷积神经网络或混合模型,自动学习图像中与篡改相关的判别特征,从而避免人工设计特征的局限性。如Rao [18]等人利用CNN对图像是否存在篡改进行整体判别,Vaishali [19]等人和Liu [20]等人研究基于深层网络结构提升对复杂篡改模式的识别能力。在此基础上,如Zhang [21]等人、Li [22]等人和Wang [23]等人进一步关注复制–粘贴操作中源区域与目标区域的区分问题,并通过引入跨尺度匹配、对抗学习或结构约束,实现更精细的篡改定位。总体来看,基于深度学习的方法在检测精度和自动化程度方面表现突出,但其性能在较大程度上依赖于训练数据的规模与分布,模型的泛化能力和计算复杂度仍是当前研究需要重点关注的问题。

3. 方法

综合已有研究可以看出,不同类型的复制–粘贴篡改检测方法各具优势与局限。基于块的方法在完整覆盖篡改区域方面具有一定优势,但其计算开销较大,且在复杂几何变换条件下鲁棒性有限;基于深度学习的方法在检测精度和自动化程度方面存在一定的优势,但通常依赖大规模标注数据,模型结构较为复杂,泛化能力不足等问题。相比之下,基于关键点的检测方法在计算效率和几何不变性方面具有较好的平衡,尤其适合在无需大量训练样本的条件下对复制–粘贴篡改进行分析。

然而,传统关键点方法在后处理阶段通常需要借助聚类算法对匹配关键点进行分组,以区分不同的复制区域或剔除错误匹配,当关键点分布复杂或存在多区域复制时,聚类效果容易受到参数选择的影响,进而制约篡改区域的准确定位。因此,如何在关键点匹配结果的基础上,更加准确地刻画匹配关键点之间的聚类结构关系,是提升关键点复制–粘贴篡改检测性能的重要问题。

基于上述分析,本文设计了一种基于主密度峰聚类的图像复制–粘贴篡改检测方法。通过将MDPC+聚类算法引入关键点匹配结果的分析过程中,充分利用关键点在空间分布与密度结构上的差异,实现匹配关键点的自适应聚类,为后续的篡改区域定位提供稳定支撑。该方法在无需人工设定聚类数量的条件下,能够自适应的挖掘匹配关键点之间的结构关系,从而提高在复杂篡改场景下的检测准确率。

3.1. 方法整体框架

本文构建了一种基于主密度峰聚类的图像复制–粘贴篡改检测方法,其整体流程如图1所示。首先,采用SIFT算法提取图像关键点并生成对应的特征描述子;随后,利用分层特征匹配对关键点进行特征匹配,获得匹配点对集合。接着,对匹配点对的一侧进行MDPC+聚类,挖掘关键点匹配结果中的空间结构关系。然后,对MDPC+得到的每个簇,通过RANSAC算法估计仿射变换模型,以剔除几何不一致的误匹配并获得稳定的空间映射关系。最后,根据估计得到的仿射变换对图像进行映射定位,并结合形态学操作对检测结果进行后处理生成篡改区域的二值定位图。本文方法的算法流程图如图1所示。

Figure 1. Framework of the proposed method

1. 本文方法流程

3.2. 特征提取

在小尺度或纹理较为平滑的篡改区域中,SIFT算法通常难以提取到足够数量的关键点,这容易导致关键点分布稀疏,从而影响后续特征匹配与篡改区域定位的效果。为提取到足够多的关键点,本文将特征提取阶段划分为三个步骤,分别为对比度阈值调整、尺度标准化以及SIFT特征提取。首先,为增强弱纹理区域的响应能力,适当降低SIFT算法中的对比度阈值,使其能够在低对比度区域检测到更多局部极值点。已有研究(如Li [9]、Wang [10]等)指出,适度降低对比度阈值有助于提升关键点密度,从而增强弱纹理区域的特征响应能力。在此基础上,本文将对比度阈值设定为0.1,该取值位于常见调整范围内,用于在关键点数量与匹配可靠性之间取得较为平衡的效果,从而增强小尺度篡改区域的特征可检测性。

其次,为减小不同分辨率图像对关键点数量的影响,本文对输入图像进行尺度归一化处理。设图像尺寸为 M×N ,定义尺度下限参数为a,当图像最大边长小于a时,对其进行等比例放大;当最大边长不小于a时保持原始尺度不变。尺度因子s定义为因子为:

s={ a max( M,N ) , max( M,N )<a 1,                    max( M,N )a (1)

随着图像尺度的增大,检测到的关键点数量以及可匹配关键点对数量通常会同步增加。当尺度扩展至一定范围后,匹配点数量已能够充分支撑后续仿射矩阵估计与篡改区域定位的稳定性,此时继续放大图像虽可获得更多匹配点,但对最终定位精度的提升有限,同时会显著增加匹配与聚类阶段的计算开销。基于上述考虑,本文统一将尺度下限参数设定为a = 3500,以在匹配可靠性与计算效率之间取得较为合理的平衡。该参数在所有实验中保持一致。

最后,在完成上述预处理后,本文采用SIFT算法对标准化图像进行特征提取,获得关键点集合 K={ k 1 , k 2 ,, k n } 。其中n表示检测到的关键点数量。每个关键点 k i 包含其空间位置、尺度以及主方向等信息。同时,为每个关键点计算对应的128维的SIFT,形成描述子集合 D={ des 1 , des 2 ,, des n } ,其中 des i 表示与关键点 k i 对应的SIFT描述子。

3.3. 分层特征匹配

3.3.1. 基于灰度的关键点分层

考虑到经过复制–移动篡改的图像,匹配的关键点通常具有相似的灰度值,本方法首先根据关键点的灰度值把关键的划分到不同的层内,然后在每个层内对关键的进行特征匹配。具体而言,首先根据关键点所在位置的局部灰度信息对关键点集合进行分层处理。设关键点被划分为L个灰度层,第i层对应的灰度区间 [ a i , b i ] 定义为

{ a i =( i1 )×( ω 2 ω 1 ) b i =min( a i + ω 2 ,255 ) (2)

其中, ω 1 表示相邻灰度层之间的重叠步长, ω 2 表示单个灰度层的区间宽度( ω 2 > ω 1 )。在此基础上,将灰度值落入对应区间内的关键点划分至同一层中。第 i 层的关键的集合 C k,i 可表示为

C k,i ={ k j | a i Gray( k j ) b i , k j K } (3)

其中, Gray( ) 表示以关键点为中心的3 × 3邻域内的灰度均值。

通过上述分层策略,匹配过程被限制在灰度相近的关键点集合中,不仅有效降低了匹配搜索空间,提高了匹配效率,还在一定程度上减少了由灰度差异引入的误匹配,从而提升了匹配效率与可靠性。

3.3.2. 特征匹配

在复制–粘贴篡改场景中,同一区域可能被多次复制,从而导致同一关键点可能对应着多个匹配点。针对这一情况,本文采用G2NN匹配策略[15]对关键点进行特征匹配。具体而言,匹配过程在每一灰度层对应的关键点子集内独立执行。对于第i层中的关键点集合 C k,i 任取其中一个关键点 k j ,计算其描述子与该层内其余关键点描述子之间的欧氏距离,并按照距离大小进行升序排列,得到距离序列

d 1 d 2 d n1 (4)

其中,n表示该层内关键点的数量。随后,通过比较相邻距离之间的比值来判定匹配关系,即依次计算 d j / d j+1 ,当该比值不再满足预设阈值条件时终止匹配搜索。具体判定条件为

d j d j+1 < T d ,j=1,2,,n2 (5)

其中,阈值 T d 在实验中设为0.43。当比值检验在第m次比较时不再满足判定条件,则集合 { d 1 , d 2 ,, d m } 所对应的关键点均被视为与关键点k存在匹配关系,本文中将匹配点对记为 ( k, k ) ,其中 k k 的匹配点。

3.4. 主密度峰聚类MDPC+

在完成分层特征匹配后,可获得一组空间分布复杂的匹配关键点。由于复制–粘贴篡改可能涉及多个区域,且匹配关键点在空间上往往呈现出稀疏、非均匀分布的特点,若直接采用传统聚类方法进行分组,容易受到参数选择或分布形态的影响,进而制约后续几何一致性验证与篡改区域定位的效果。为此,本文引入主密度峰聚类算法MDPC+,对匹配关键点进行自适应聚类,以挖掘潜在的复制区域结构。

MDPC+是一种基于密度峰思想的聚类算法,其核心思想是:首先利用局部邻域内的密度信息识别若干局部密度峰,并将其作为子簇中心;随后在密度峰层面构建峰间关联关系,实现子簇的全局聚类。该方法无需预先设定聚类数量,能够根据数据的密度分布特性自适应形成聚类结果,适用于关键点匹配结果中常见的复杂空间分布场景。

3.4.1. 局部密度估计与点级关联结构构建

本文将匹配关键点视为节点,并基于其空间邻域关系构建关键点之间的关联结构。具体而言,首先根据关键点的空间位置为每个关键点建立 k nn 邻近(k-nearest neighbors, kNN)关系,从而形成一个以关键点为节点、近邻关系为边的邻接结构。需要指出的是,MDPC+并未通过设定固定的距离阈值来定义邻域范围,而是依托kNN结构构建局部邻域。局部密度的估计以及点级关联过程均在 k nn 邻近范围内进行,因此邻域尺度由邻近数量 k nn 自适应调节,而非依赖全局距离参数。 k nn 的计算公式如下:

k nn = n (6)

其中,n表示参与聚类的匹配关键点数量。该设定使邻域规模随样本规模自动调整,从而在不同数量的匹配关键点条件下保持合理的邻域覆盖范围。

在此基础上,对每个关键点 k i 计算其空间局部密度 ρ i 用于刻画该点在局部邻域内的聚集程度,其定义为

ρ i = xne i k nn ( k i ) exp( d ij ) (7)

其中, ne i k nn ( k i ) 关键点 k i k nn 个邻近的匹配关键点集合, d ij 为关键点 k i k j 之间的欧氏距离。邻域内关键点距离越近,对局部密度的贡献越大。随后,将所有关键点按密度值从高到低进行排序。若某一关键点的密度大于其近邻集合中所有关键点的密度,则将其视为局部密度峰;否则,将该关键点与其邻域内某一密度更高的关键点建立关联关系。为保证关联的合理性,父节点的选择综合考虑关键点之间的空间距离与密度差异,使非密度峰关键点优先连接到距离较近且密度相近的高密度邻居。

通过上述过程,每个非密度峰关键点均仅关联至一个密度更高的关键点,从而在关键点层面形成以密度峰为根节点的有向树状结构。由此,所有关键点构成一组以不同密度峰为核心的关联子结构,每一个子结构对应一个初始子簇。其中,局部密度峰作为关联结构的根节点,其累计关联代价被定义为零。

3.4.2. 密度峰分组与聚类中心确定

需要指出的是,上述点级关联结构主要刻画了关键点在局部邻域内的逐级归属关系,其结果是形成若干以密度峰为核心的子簇。然而,这些子簇在空间上并非相互独立,不同子簇之间可能存在相邻、交错的情况。为进一步刻画子簇之间的全局组织关系,MDPC+在密度峰层面对各子簇之间的关联关系进行刻画。

为此,首先引入密度偏差用于衡量相邻节点在密度层面的相对差异,其定义为

μ ij = | ρ i ρ j | max( ρ i , ρ j ) (8)

其中, ρ i ρ j 分别表示对应关键点或局部密度峰的局部密度值。该指标用于刻画相邻节点在密度一致性方面的差异程度。在此基础上,定义累计密度偏差代价 Γ( ) ,用于描述节点在关联结构中沿关联关系逐级连接所需付出的总代价。对于关键点 k i ,其到所属密度峰 p( x i ) 的累计代价可表示为

Γ( k i ,p( k i ),λ )= ( k a , k b ) θ k i ( k i ) μ ab λ (9)

其中, θ k i ( k i ) 表示关键点 k i 沿点级关联关系逐级连接至其密度峰的路径, λ 为衰减系数,用于调节密度偏差在累计代价中的影响程度。路径上的密度差异越大,则对应的累计代价越高。在密度峰层面,将每一个子簇对应的局部密度峰视为节点,并根据峰与峰之间的关联关系构建峰级关联图。在该图中,密度峰之间的关联强度由累计密度偏差代价 Γ( ) 。由于不同密度峰之间可能存在多条关联路径,因此需要在峰级关联图中寻找最小累计代价路径,以衡量峰与峰之间的关系。对于任一密度峰 p i ,其到最近更高密度峰的最小累计代价定义为

δ p i = min ρ p j > ρ p i Γ( p i , p j ,λ ) (10)

该量反映了密度峰 p i 其他高密度峰之间的分离程度。当 δ p i 较大时,表明该密度峰在全局结构中具有较强的独立性,更可能对应真实的聚类中心。

结合密度值ρ与峰间代价δ,具有较大ρδ的局部密度峰被选为聚类中心,其余局部密度峰则沿峰级关联图中指向更高密度峰的最小代价路径继承聚类标签。最终,每个匹配关键点根据其所属密度峰获得对应的聚类标记,从而完成对匹配关键点的自适应聚类。

3.5. 仿射矩阵估计和几何一致性约束

通过MDPC+聚类算法处理后,匹配关键点被划分为若干具有空间一致性的点集,每一聚类结果对应一个潜在的复制–粘贴篡改区域。然而,仅依靠特征匹配与聚类仍难以完全消除误匹配的影响,尤其是在纹理相似或结构重复的区域中,仍可能存在几何不一致的匹配点对。为进一步验证匹配关系的真实性并精确刻画复制区域之间的空间映射关系,本文在聚类结果的基础上引入仿射矩阵估计与几何一致性约束,对匹配点对进行筛选与优化。

3.5.1. 基于聚类结果的局部仿射矩阵估计

在复制–粘贴篡改场景中,篡改区域通常可近似看作由源区域经平移、旋转、缩放等线性变换得到,因此其空间关系可通过仿射变换进行刻画。对于MDPC+聚类算法得到的每一个关键点簇,本文将该簇内的匹配点对视为来自同一潜在复制操作,并在此基础上独立估计对应的局部仿射变换模型。

设某一聚类簇内包含 n c 对匹配关键点 { ( k i , k i ) } i=1 n c ,其中 k i =( x i , y i ) 表示关键点的位置, k i =( x i , y i ) 表示对应的匹配关键点位置。仿射变换模型可表示为

[ x i y i ]=[ a b c d ][ x i y i ]+[ t x t y ] (11)

其中,参数abcd为几何变换系数, t x , t y 为平移系数。

考虑到匹配点对中可能仍包含少量误匹配,本文采用RANSAC算法对每个聚类簇内的匹配点对进行鲁棒仿射矩阵估计。通过随机采样与一致性验证,RANSAC能够在存在离群点的情况下稳定估计出符合多数匹配关系的仿射变换模型。

3.5.2. 几何一致性约束

在完成仿射矩阵估计后,需要进一步对匹配点对进行几何一致性验证,以剔除与仿射模型不一致的错误匹配。具体而言,对于聚类簇内的每一对匹配关键点 ( k i , k i ) ,将源关键点 k i 通过估计得到的仿射矩阵进行映射,得到预测位置 k ^ i 。若预测位置与实际匹配位置之间的欧氏距离满足

k ^ i k i 2 <ε (12)

则该匹配点对被视为几何一致的内点;否则,将其判定为错误匹配并予以剔除。其中, ε 为距离阈值,用于控制几何一致性判定的严格程度。

通过上述内点筛选过程,可以有效去除聚类簇中不符合复制–粘贴几何关系的匹配点对,从而得到更加可靠的匹配结果。

3.6. 篡改定位

对于通过几何一致性验证的聚类簇,本文利用其对应的仿射变换关系对图像进行空间映射。随后,根据映射结果生成对应的篡改区域,并通过形态学操作对篡改区域进行平滑与连通性增强,以消除噪声区域并填补局部空洞,最终获得连续且完整的篡改区域定位结果。

4. 实验结果与分析

所有实验均在64位Windows操作系统下完成,实验平台配置为Intel Core i7处理器(主频2.40 GHz),内存容量为32 GB。算法实现与实验运行均基于MATLAB R2021b环境。

4.1. 数据集与评价指标

为全面评估所提出方法在不同复制–粘贴篡改场景下的检测性能,本文选取FAU数据集和MICC-F600数据集[10]作为实验数据集。

FAU数据集以高分辨率图像为主,图像平均分辨率约为3000 × 2300,能够较好地反映算法在高分辨率条件下的适用性。该数据集中包含多种复制–粘贴篡改类型,本文从中选取了48张仅包含平移变换的篡改图像用于实验验证。

MICC-F600数据集共包含600张图像,其中包括440张原始未篡改图像和160张复制–粘贴篡改图像。该数据集中的图像分辨率跨度较大,范围从800 × 533到3888 × 2592,具有较强的场景多样性。在本文实验中,选取其中全部160张复制–粘贴篡改图像作为测试样本,用于评估方法在真实图像条件下的检测效果。

在评价指标方面,本文采用Precision、Recall以及F1对检测结果进行定量分析。其中,Precision用于衡量检测结果的准确性,Recall用于评估篡改区域的检出能力,F1则综合反映算法在准确性与完整性之间的整体表现。

4.2. 实验对比分析

本文在FAU数据集和MICC-F600数据集两个数据集中对所采用的各类检测方法均进行了像素级检测性能评估。对比实验中选取了4个具有代表性的复制–粘贴篡改检测方法作为参考,其中包括传统方法Yang [13]、Lin [24],以及基于深度学习的检测方法Shao [25]和Weng [26]。各方法在上述数据集上的定量检测结果如表1所示。

Table 1. Precision, Recall and F1 (%) results on the FAU and MICC-F600 datasets

1. 在FAU数据集和MICC-F600数据集上的Precision,Recall,F1(%)检测结果

Methods

FAU

MICC-F600

Precision

Recall

F1

Precision

Recall

F1

Yang [13]

77.40

80.34

74.75

73.51

76.37

70.99

Lin [24]

83.08

82.33

80.47

80.35

78.28

77.52

Shao [25]

50.19

33.51

40.18

70.35

78.23

74.08

Weng [26]

33.09

81.19

42.54

30.87

80.27

40.36

proposed

88.77

86.49

85.47

88.50

80.45

82.34

表1可以看出,在FAU数据集和MICC-F600数据集上,本文方法在Precision、Recall以及F1三项指标上整体均优于对比方法,表现出较好的检测性能。

在FAU数据集上,本文方法的Precision、Recall和F1分别达到88.77%、86.49%和85.47%,在Precision指标上,相比次优的Lin [24]高出5.69%,表明本文方法在该数据集上对误检具有较好的抑制能力。在Recall指标上,相比次优的Lin [24]高出4.16%,说明本文方法在篡改区域检出完整性方面表现较为稳定。在综合指标F1上,较次优的Lin [24]高出5%,反映了本文方法在准确性与完整性之间能够保持较为均衡的检测表现。

在MICC-F600数据集上,本文方法同样取得了较为均衡的检测效果,其中Precision、Recall和F1分别达到88.50%、80.45%和82.34%。在Precision指标上,较次优的Lin [24]高出8.15%,表明其在真实图像条件下对误匹配具有较强的抑制能力。在Recall指标上,次优的Weng [26]达到了80.27%,本文方法结果接近,说明各方法在篡改区域检出能力方面均保持较高水平。在综合指标F1上,较次优的Lin [24]高出4.82%,现了本文方法在Precision与Recall两项指标之间能够维持较为合理的平衡。

综合FAU和MICC-F600两个数据集的实验结果可以发现,本文方法在不同分辨率和不同篡改场景条件下均能够在Precision、Recall和F1三项指标上保持较高水平,表明该方法具有一定的稳定性与有效性。

为了更加直观地分析不同方法在篡改区域定位精度和完整性方面的表现,本文进一步给出了在两个数据集中的部分可视化对比结果。图2展示了FAU数据集与MICC-F600数据集上的检测示例,其中第一、二行为FAU数据集的可视化结果,第三、四行为MICC-F600数据集可视化结果。从左至右依次为篡改图像、Yang [13]、Lin [24]、Shao [25]、Weng [26]以及本文方法的检测结果,最后一列为对应的ground-truth。

Figure 2. Visual comparison of copy-move forgery detection results obtained by different methods on the FAU and MICC-F600 datasets. The first and second rows correspond to results on the FAU dataset, while the third and fourth rows correspond to results on the MICC-F600 dataset. From left to right, each column shows the tampered image, the detection results of Yang [13], Lin [24], Shao [25], Weng [26], and the proposed method, respectively. The rightmost column presents the corresponding ground-truth image

2. 不同方法在FAU和MICC-F600数据集上的复制–粘贴篡改检测可视化结果对比。其中第一、二行为FAU数据集的检测结果,第三、四行为MICC-F600数据集的检测结果。各子图按列依次为篡改图像、Yang [13]、Lin [24]、Shao [25]、Weng [26]以及本文方法的检测结果,最右一列为对应的ground-truth图像

从图中可以看出,在第一行中,Yang [13]、Shao [25]和Weng [26]方法均能够检测到篡改区域,但其定位结果与真实篡改区域之间仍存在较为明显的偏差。相比之下,Lin [24]以及本文方法均能够较为准确地定位篡改区域。在第二行中,Yang [13]和Weng [26]方法虽可检测到篡改区域,但定位结果与真实篡改区域仍存在一定偏差;Lin [24]方法未能有效定位篡改区域;Shao [25]方法能够检测到大部分篡改区域,但仍存在部分漏检现象。相比之下,本文方法在该样例中能够较完整地定位篡改区域。在第三行中,Yang [13]、Shao [25]和Weng [26]的方法虽然识别出篡改区域的存在,但其定位结果与真实篡改区域之间偏差较大;Lin [24]方法同样未能有效完成篡改区域定位。而本文方法在该样例中能够较为准确地定位篡改区域。在第四行中,Yang [13]和Shao [25]的检测结果虽在一定程度上反映了篡改区域位置,但均存在定位不完整的问题;Weng [26]方法则出现了较为明显的误报情况。相比之下,本文方法在该样例中能够较完整地定位出篡改区域。

综合表1的检测结果以及图2所示的可视化对比结果可以看出,本文方法在FAU数据集和MICC-F600数据集上均表现出较为稳定且均衡的检测性能。在表1中,本文方法在Precision、Recall和F1三项指标上整体均取得了较高数值,表明其在误检抑制、篡改区域检出完整性以及综合检测性能方面均具有较好的表现。从可视化结果来看,而本文方法在多数样例中能够较完整地覆盖真实篡改区域,并保持较好的定位一致性。这一现象与评价指标Precision和Recall均处于较高水平的结果相一致。综合来看,本文方法在不同分辨率、不同篡改场景下均能够保持较为稳定的检测效果,说明该方法在复制–粘贴篡改检测任务中具有一定的有效性和实用价值。

5. 结论

本文围绕图像复制–粘贴篡改检测问题,提出了基于主密度峰聚类的图像复制–粘贴篡改检测方法。该方法以SIFT关键点为基础,通过分层特征匹配获得可靠的匹配点对,并引入MDPC+聚类算法对匹配关键点进行自适应聚类,从而有效刻画关键点之间的空间结构关系。在此基础上,结合仿射矩阵估计与几何一致性验证,实现了对复制–粘贴篡改区域的准确定位。

在FAU和MICC-F600数据集上的实验结果表明,本文方法在Precision、Recall和F1等指标上均取得了较为稳定且均衡的检测性能。定量评价与可视化结果均显示,该方法在误检抑制和篡改区域检出完整性方面具有良好的表现,验证了所提方法在不同分辨率和不同篡改场景下的有效性。

尽管本文方法在多组实验中取得了较好的检测效果,但在处理关键点稀疏或复杂后处理篡改场景时仍存在一定提升空间。后续工作将进一步探索更加鲁棒的特征表达方式,并结合轻量化学习策略,以提升方法在复杂场景下的适应能力。

基金项目

信息技术教育部重点实验室(中山大学)开放基金课题(2024ZD001);广东省哲学社会科学规划项目(GD24XTS02, GD25CXW07);广东大学生科技创新培育专项资金(pdjh2025bk099)。

NOTES

*通讯作者。

参考文献

[1] Guan, J., Li, S., He, X. and Chen, J. (2023) Clustering by Fast Detection of Main Density Peaks within a Peak Digraph. Information Sciences, 628, 504-521. [Google Scholar] [CrossRef
[2] Fridrich, J., Soukal, D. and Lukas, J. (2003) Detection of Copy-Move Forgery in Digital Images. Proceedings of Digital Forensic Research Workshop, 3, 652-663.
[3] Muhammad, G., Hussain, M. and Bebis, G. (2012) Passive Copy Move Image Forgery Detection Using Undecimated Dyadic Wavelet Transform. Digital Investigation, 9, 49-57. [Google Scholar] [CrossRef
[4] Emam, M., Han, Q. and Niu, X. (2016) PCET Based Copy-Move Forgery Detection in Images under Geometric Transforms. Multimedia Tools and Applications, 75, 11513-11527. [Google Scholar] [CrossRef
[5] Mahdian, B. and Saic, S. (2007) Detection of Copy-Move Forgery Using a Method Based on Blur Moment Invariants. Forensic Science International, 171, 180-189. [Google Scholar] [CrossRef] [PubMed]
[6] Ryu, S.J., Kirchner, M., Lee, M.J. and Lee, H.K. (2013) Rotation Invariant Localization of Duplicated Image Regions Based on Zernike Moments. IEEE Transactions on Information Forensics and Security, 8, 1355-1370. [Google Scholar] [CrossRef
[7] Cozzolino, D., Poggi, G. and Verdoliva, L. (2015) Efficient Dense-Field Copy-Move Forgery Detection. IEEE Transactions on Information Forensics and Security, 10, 2284-2297. [Google Scholar] [CrossRef
[8] Bi, X. and Pun, C. (2018) Fast Copy-Move Forgery Detection Using Local Bidirectional Coherency Error Refinement. Pattern Recognition, 81, 161-175. [Google Scholar] [CrossRef
[9] Li, Y. and Zhou, J. (2018) Fast and Effective Image Copy-Move Forgery Detection via Hierarchical Feature Point Matching. IEEE Transactions on Information Forensics and Security, 14, 1307-1322. [Google Scholar] [CrossRef
[10] Wang, C., Huang, Z., Qi, S., Yu, Y., Shen, G. and Zhang, Y. (2023) Shrinking the Semantic Gap: Spatial Pooling of Local Moment Invariants for Copy-Move Forgery Detection. IEEE Transactions on Information Forensics and Security, 18, 1064-1079. [Google Scholar] [CrossRef
[11] Sujin, J.S. and Sophia, S. (2024) High-Performance Image Forgery Detection via Adaptive SIFT Feature Extraction for Low-Contrast or Small or Smooth Copy-Move Region Images. Soft Computing, 28, 437-445. [Google Scholar] [CrossRef
[12] Silva, E., Carvalho, T., Ferreira, A. and Rocha, A. (2015) Going Deeper into Copy-Move Forgery Detection: Exploring Image Telltales via Multi-Scale Analysis and Voting Processes. Journal of Visual Communication and Image Representation, 29, 16-32. [Google Scholar] [CrossRef
[13] Yang, F., Li, J., Lu, W. and Weng, J. (2017) Copy-Move Forgery Detection Based on Hybrid Features. Engineering Applications of Artificial Intelligence, 59, 73-83. [Google Scholar] [CrossRef
[14] Mukherjee, S., Pal, A.K. and Maji, S. (2024) A Copy-Move Forgery Detection Technique Using DBSCAN-Based Key Point Similarity Matching. International Journal of Machine Learning and Cybernetics, 15, 5607-5634. [Google Scholar] [CrossRef
[15] Amerini, I., Ballan, L., Caldelli, R., Del Bimbo, A. and Serra, G. (2011) A Sift-Based Forensic Method for Copy-Move Attack Detection and Transformation Recovery. IEEE Transactions on Information Forensics and Security, 6, 1099-1110. [Google Scholar] [CrossRef
[16] Wang, X.Y., Li, S., Liu, Y.N., Niu, Y., Yang, H.Y. and Zhou, Z.L. (2017) A New Keypoint-Based Copy-Move Forgery Detection for Small Smooth Regions. Multimedia Tools and Applications, 76, 23353-23382. [Google Scholar] [CrossRef
[17] Lin, C., Yang, H., Huang, K., Long, D., Zhong, Y., Deng, Y., et al. (2025) Copy-Move Forgery Detection of Social Media Images Using Tendency Sparsity Filtering and Variable Cluster Spectral Clustering. Journal of Visual Communication and Image Representation, 114, Article 104635. [Google Scholar] [CrossRef
[18] Rao, Y. and Ni, J. (2016) A Deep Learning Approach to Detection of Splicing and Copy-Move Forgeries in Images. 2016 IEEE International Workshop on Information Forensics and Security (WIFS), Abu Dhabi, 4-7 December 2016, 1-6. [Google Scholar] [CrossRef
[19] Vaishali, S. and Neetu, S. (2024) Enhanced Copy-Move Forgery Detection Using Deep Convolutional Neural Network (DCNN) Employing the Resnet-101 Transfer Learning Model. Multimedia Tools and Applications, 83, 10839-10863. [Google Scholar] [CrossRef
[20] Liu, T., Yuan, X., Xie, Z., Zhao, K., Huang, G. and Pun, C. (2024) A Two-Phase Scheme by Integration of Deep and Corner Feature for Balanced Copy-Move Forgery Localization. IEEE Transactions on Industrial Informatics, 21, 1299-1308. [Google Scholar] [CrossRef
[21] Zhang, Y., Zhu, G., Wang, X., Luo, X., Zhou, Y., Zhang, H., et al. (2022) CNN-Transformer Based Generative Adversarial Network for Copy-Move Source/Target Distinguishment. IEEE Transactions on Circuits and Systems for Video Technology, 33, 2019-2032. [Google Scholar] [CrossRef
[22] Li, Y., He, Y., Chen, C., Dong, L., Li, B., Zhou, J., et al. (2024) Image Copy-Move Forgery Detection via Deep Patchmatch and Pairwise Ranking Learning. IEEE Transactions on Image Processing, 34, 425-440. [Google Scholar] [CrossRef] [PubMed]
[23] Wang, J., Nie, J., Jing, N., Liang, X., Wang, X., Chi, C., et al. (2025) Copy-Move Forgery Image Detection Based on Cross-Scale Modeling and Alternating Refinement. IEEE Transactions on Multimedia, 27, 5452-5465. [Google Scholar] [CrossRef
[24] Lin, C., Yang, H., Huang, K., Wu, Y., Wen, Y. and Deng, Y. (2025) Image Copy-Move Forgery Detection in the Social Media Based on a Prior Density Clustering and the Point Density. In: Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, Springer, 239-257. [Google Scholar] [CrossRef
[25] Shao, H.C., Liao, Y.R., Tseng, T.Y., Chuo, Y.L. and Lin, F.Y. (2025) Copy-Move Detection in Optical Microscopy: A Segmentation Network and a Dataset. IEEE Signal Processing Letters, 32, 1106-1110. [Google Scholar] [CrossRef
[26] Weng, S., Zhang, J., Zhu, T., Yu, L. and Zhang, C. (2025) DCM-Net: A Diffusion Model-Based Detection Network Integrating the Characteristics of Copy-Move Forgery. IEEE Transactions on Multimedia, 27, 503-514. [Google Scholar] [CrossRef