基于鲸鱼优化算法的点云配准算法
Point Cloud Registration Algorithm Based on Whale Optimization Algorithm
DOI: 10.12677/csa.2026.161032, PDF, HTML, XML,    科研立项经费支持
作者: 赖雄杰, 候华毅*:武汉工程大学光电信息与能源工程学院,湖北 武汉
关键词: 点云配准哈希函数配准矩阵鲸鱼优化算法Point Cloud Registration Hash Function Registration Matrix Whale Optimization Algorithm
摘要: 点云配准的核心是通过求解源点云与目标点云的最优刚性变换矩阵实现两者对齐,其性能直接影响同步定位与测绘、三维重建等领域的应用效果。然而,传统算法存在配准精度低、耗时久及鲁棒性不足的问题。为此,本文提出一种哈希函数与鲸鱼优化算法(WOA)协同的点云配准方法:利用哈希函数对高维点云特征进行低维映射,快速筛选潜在匹配点对;再通过鲸鱼优化算法对粗配准矩阵进行迭代优化,提升变换参数精度。以斯坦福公共点云数据集的Bunny、Dragon、Buddha和Armadillo模型为实验对象,将所提算法与SAC-IA、FPCS、PCA三种传统算法对比。实验结果表明,本文算法在配准时间与精度综合性能上均显著优于对比算法。
Abstract: The core of point cloud registration is to align the source point cloud and target point cloud by solving the optimal rigid transformation matrix, and its performance directly affects the application effects in fields such as simultaneous localization and mapping (SLAM) and 3D reconstruction. However, traditional algorithms suffer from problems of low registration accuracy, long time consumption, and insufficient robustness. To address these issues, this paper proposes a point cloud registration method that collaborates hash function with Whale Optimization Algorithm (WOA): the hash function is used to perform low-dimensional mapping of high-dimensional point cloud features, enabling rapid screening of potential matching point pairs; then the Whale Optimization Algorithm is adopted to iteratively optimize the coarse registration matrix, improving the accuracy of transformation parameters. Experiments are conducted on the Bunny, Dragon, Buddha, and Armadillo models from the Stanford public point cloud dataset, and the proposed algorithm is compared with three traditional algorithms (SAC-IA, FPCS, and PCA). The experimental results show that the proposed algorithm significantly outperforms the comparison algorithms in terms of the comprehensive performance of registration time and accuracy.
文章引用:赖雄杰, 候华毅. 基于鲸鱼优化算法的点云配准算法[J]. 计算机科学与应用, 2026, 16(1): 388-401. https://doi.org/10.12677/csa.2026.161032

1. 引言

随着现代信息技术和扫描设备的快速发展,点云数据已经成为表征三维世界的主要数据格式。点云在不同领域有众多应用,包括机器人[1]、生物医学[2]、道路和建筑测绘[3]、城市建模[4]、自动驾驶[5]和增强现实[6]。点云配准作为点云数据处理的关键环节,其目标是通过求解刚性变换,将不同视角或时刻采集的源点云与目标点云精准对齐,为后续的点云融合、模型重建提供基础。然而,实际中存在的点云规模大、重叠率低、噪声干扰及几何结构重复等问题,导致传统配准算法难以兼顾精度与效率。

传统的点云配准方法,如采样一致性(SAC-IA)算法[7],基于RANSAC框架通过FPFH特征匹配求解刚性变换,但随机采样导致时间复杂度高达 O( N s ) (N为点云规模,s为采样点数),大规模数据下效率低;且对特征半径、内点阈值等参数敏感,不当设置易引发误匹配,低重叠率场景中易陷入局部最优。4点全等集(FPCS)算法[8]通过共面四点距离比匹配点对,虽能提供一定精度,但四点组合数随点云规模呈 O( N 4 ) 增长,计算开销极大;共面性假设在曲面模型、大角度旋转或噪声场景中易被破坏,导致匹配失效。PCA算法[9]是将点云主轴对齐并进行主轴校正从而完成粗配准任务,但对初始变换参数极为敏感,初始位姿偏差较大时易收敛至局部最优;而噪声、离群点会直接扭曲协方差矩阵的估计结果,导致主方向判断偏差,最终配准精度大幅下降。此外,Liu [10]提出了一种基于模拟退火和马尔科夫链蒙卡特罗的配准算法,虽然在全局优化能力上优于传统ICP算法,然而模拟退火过程可能会因为参数设置的不合理,导致计算效率低下,收敛速度慢。Wu [11]利用三维点云集的几何特征,即曲率值来确定相应的点,然而,该算法计算量大,导致配准效率降低。Choi S [12]利用点云单应性增强算法的鲁棒性,采用点对点对应方法最小化计算开销。Ying [13]等提出了一种尺度配准算法,该算法通过把尺度因子与迭代最近点算法融合,在一定程度上解决了配准过程中的尺度问题。但在处理点集规模较大的点云数据时,迭代运算所需的时间较长,计算效率欠佳。Fan [14]介绍了一种改进的3d-正态分布变换(NDT)算法,该算法虽减少了配准迭代次数,但仍然需要大量的计算。

本文提出了一种新的混合点云配准框架,该框架将哈希函数与鲸鱼优化算法协同集成。我们的方法利用哈希函数将高维点云的特征映射到低维代码,在保持精度的同时,实现了高效匹配点对的搜索,之后,我们采用鲸鱼优化算法来细化配准矩阵,WOA作为一种新型元启发式算法,通过模拟座头鲸“气泡网捕食策略”,兼具全局探索与局部开发能力,可有效避免局部最优。这种双重优化机制在不影响配准精度的情况下实现了较好的配准时间。

2. 传统点云算法

2.1. SAC-IA算法

SAC-IA算法基于随机采样一致性(RANSAC)框架,通过特征匹配与迭代优化求解刚性变换,其核心步骤如下:

1) 特确定阈值 d ,选取源点云中与 P q 之间距离大于 d 的点作为采样点,保证采样点之间的FPFH具有特异性。

2) 随根据源点云中的采样点所具有的FPFH特征,在目标点云中搜索,将目标点点云中具有相似FPFH特性的点作为采样点的对应点。

3) 内通过源点云中的采样点和目标点云中的对应点,计算点云对之间的变换矩阵,并求解配准误差

用于对配准性能的判定。使用Huber罚函数[15]来表示配准性能,记为   j=1 n H( l j ) ,表达式为:

H( l j )={ 1 2 l j 2 , l j < m l 1 2 m l 2 l j m l , l j > m l (1)

式中: m l 为给定值; l j 为经变换后第 j 组对应点之间的距离差值,重复以上步骤,将获得的最小误差的变换矩阵用于后续配准。

但是SAC-IA算法也存在一定的局限性,RANSAC需多次随机采样,时间复杂度为 Ο( N s ) (s为采样点数),FPFH特征半径、内点阈值 ε 等参数需人工调优,不当设置容易导致误匹配或配准失败,且其依赖初始采样点质量,在低重叠率或复制几何场景中易陷入局部最优解。

2.2. FPCS算法

FPCS算法首先在目标点云中选取共面的4个点,使它们组成一组基,再根据刚性变换后交点所占线段比例不变的特性,在与之相对应的源点云中寻得4个共面点,继而计算出对应的变换矩阵。

在目标点云 P 中取一个并非全共线的共面四点集 p i p i P,i=a,b,c,d ,作为一组基,计算 d 1 = p a p b d 2 = p c p d

令线段abcd相交于点e,则两线段独立的比率为

r 1 = ae ab (2)

r 2 = ce cd (3)

根据刚性变换中所占线段比例不变的特性,在源点云 Q 中能提取出所有在一定范围内可以与 p i 相符合的四点集合 q i

在距离 d 1 d 2 的阈值下,寻找最优刚性变换,使两组对应四点集足够接近。

同样FPCS算法也存在一定的局限性,四点匹配组合数为 Ο( N 4 ) 。计算量随点云规模急剧增长,实时性差,共面性与距离比假设在曲面、噪声或大角度旋转场景中易被破坏,导致匹配失败;且均匀点云密度要求高,稀疏或非均匀分布点云中难以找到有效四点集。

2.3. PCA算法

PCA是一种常用的数据简化分析方法,通过线性变换提取数据的主要特征分量,可用于降低数据的维数,同时保留数据对差异的最大贡献信息。因此,对于点云数据,PCA可以提取点云自身的3个互相垂直的主成分向量,即可视为主轴方向。基于PCA的粗配准方法主要利用点云的主轴方向进行配准,步骤如下:

1) 给定两片点云 P={ p i R 3 |i=1,2,,N } Q={ q j R 3 |i=1,2,,M } ,可求得两片点云的协方差矩阵 C ov

{ C ov P = 1 N i=1 n ( p i P ¯ ) ( p i P ¯ ) T   C ov Q = 1 N j=1 m ( q j Q ¯ ) ( q j Q ¯ ) T (4)

其中, P ¯ = 1 N i=1 n p i Q ¯ = 1 M j=1 m q j ,代表点云中点,用于数据去中心化。

2) 通过奇异值分解计算协方差矩阵 C ov 的特征值与特征向量:

{ C ovP = U P D P V P T C ovQ = U Q D Q V Q T (5)

其中, U P U Q 是3 × 3的矩阵,即两组点云的主方向。

3) 通过式(6)可计算出初始刚体变换矩阵 ( R 0 , T 0 ) ,经过式(7)旋转变换,可得到主轴对齐的点云 P

{ R 0 = U P U Q 1 T 0 = Q ¯ R 0 × P ¯ (6)

P =P× R 0 + T 0 (7)

然而,对于两片相似的点云来说,虽然实现了主轴对齐,但存在主轴反向的可能性。两片点云在每个主轴都可能出现反向的问题,如果按照主轴方向对齐的方式配准,应有8种对应关系,但其中只有1种是正确的。因此,对初始刚体变换矩阵 ( R 0 , T 0 ) 进行校正的目的是从8种情况中选择正确的对应关系。

4) 对主轴反向的问题进行校正

基于PCA的点云粗配准算法对于主轴反向处理的方法是通过式(8)分别计算8种情况的平均均方根误差,取误差最小时对应的变换矩阵 ( R 0 , T 0 ) ,即为正确的粗配准变换参数。

E error = 1 N i=1 n ( p i q i ) ( p i q i ) T (8)

3. 本文方法总体框架

针对传统算法的局限性,本文提出融合哈希算法与WOA结合的点云配准算法:该方法通过哈希函数实现匹配点对的高效筛选,利用SVD求解初始配准矩阵,再通过WOA对变换参数迭代优化,实现精度与效率的协同提升。其核心优势在于:鲸鱼优化算法通过模拟座头鲸的“气泡网捕食策略”,依托收敛因子 a 的线性衰减特性与随机向量AC的动态调节,实现全局探索( | A |>1 时随机搜索新解空间)与局部开发( | A |<1 时向当前最优解聚集)的自适应平衡,即可有效降低对初始位姿的敏感性,避免算法陷入局部最优;哈希桶与法向量的联合筛选机制,通过哈希码快速缩小匹配范围,大幅降低了对人工阈值参数的依赖,提升了复杂场景下的匹配稳定性;球面哈希通过半径、法向量的空间分区策略,对点云密度非均匀性具有更强的适应性,结合法向量相似度对噪声干扰的过滤作用,进一步增强了算法的鲁棒性。

本文所提方法的流程如图1:利用哈希函数将高维点云特征映射为低维哈希码,降低特征匹配的计算复杂度;通过奇异值分解(SVD)方法,基于筛选后的匹配点对计算初始配准矩阵,并将该结果作为WOA的初始种群;最后通过WOA迭代优化,获取最优刚性变换矩阵,完成点云配准。

Figure 1. Method flow chart of the proposed point cloud registration algorithm

1. 所提点云配准算法的方法流程图

Figure 2. Schematic diagram of hash transformation and data lookup

2. 哈希变换与数据查找示意图

3.1. 哈希函数

在点云处理中,暴力搜索匹配点对的效率极低。TeodoroG [16]提出的LSH方法在高维大规模数据场景下实现了快速检索与高准确率之间的平衡,为图像搜索、实时多媒体检索等网络级应用提供了高效的解决方案。Liu [17]提出了DSH方法,该方法将图像检索的平均精度均值(mAP)提高了20%,并支持百万级数据。Zhu [18]通过哈希表索引和长码分区优化了效率、准确率和存储。

本文采用哈希函数对特征点云进行优化处理,在保证精度的前提下,显著提高了处理效率。它通过特定的算法对输入数据进行处理,提取数据的关键特征并转化为相对简短且标识该数据的哈希值,将高维数据映射到低维空间。在点云配准中,首先从点云数据中提取具有代表性的特征,如点的坐标、法向量等,然后将这些特征通过特定的哈希函数进行编码,得到对应的哈希码;进而可通过快速比较哈希码筛选出可能匹配的点云部分,减少后续精确匹配的计算量,并结合点云的法向量相似度判断是否为匹配点,最终利用匹配点对计算出粗略的配准矩阵。哈希变换与数据查找的核心逻辑如图2所示,源点云与目标点云的高维特征分别经哈希函数处理后生成低维哈希码,通过哈希码的快速匹配的快速匹配可缩小搜索范围,有效降低特征匹配的计算复杂度,为后续初始配准矩阵的求解提供高效支撑。

3.2. 法向量的估计

法向量作为点云处理中最基本的一种特征描述符,其估计精度直接影响匹配可靠性。本文采用 KD 树与PCA结合的方法估计法向量:首先利用 KD 树对点云数据进行空间划分,可以获得每个点的 K 近邻点,然后采用PCA方法来构建点的协方差矩阵;最后对协方差矩阵进行特征分解,可以得到特征值和特征向量,最小特征值对应的特征向量即为采样点的法向量。协方差矩阵 C 可表示为[19]

C i = 1 | K i | P j K i ( P i,j P i ) ( P i,j P i ) T (9)

式中: K i 表示第 i 个采样点的 K 近邻集合; P i 表示第 i 个采样点; P i,j 表示采样点 P i 的第 j 个近邻点。

法向量的引入使哈希码从“空间位置唯一”变换为“位置 + 几何特征双重唯一”,让哈希桶内聚集的点不仅空间邻近,且局部几何特性相似,有效降低误匹配率,为后续匹配精度提供保障。

3.3. 哈希表的构建

哈希表的核心作用是快速定位潜在匹配点对,通过精细化分桶策略减少哈希冲突,提升匹配效率。本文哈希表的构建流程如下。

球面坐标离散化:将点云的半径与法向量转换为球面坐标,并进行分桶处理:

1) 半径分桶:

r i = r 10.0 × N r (10)

式中 r i 为半径分桶的桶索引, r 为采样点到质心的距离。

2) 法向量哈希编码:将法向量 n=( n x , n y , n z ) 转换为球面坐标并分桶

  • 法向量球面坐标:

{ θ normal =arctan( n y n x ) φ normal =arccos( n z ) (11)

式中 θ normal 为法向量球面坐标的极角, φ normal 为法向量球面坐标的方位角, n x n y n z 为法向量的三维分量。

  • 法向量分桶:

{ θ i = θ normal +π 2π × N θ Φ i = φ normal π × N Φ (12)

式中 θ i 为极角对应的桶索引, Φ i 为方位角对应的桶索引。

综合坐标和法向量的分桶索引,生成全局哈希键值: H= r i ×( N θ × N Φ )+ θ i × N Φ + Φ i

哈希表通过球面坐标离散化与法向量编码实现匹配点对快速检索,核心参数设置如下:半径分桶数:450;法向量极角分桶数:100;法向量方位角分桶数:100。

通过上述策略,哈希表可快速定位空间位置与几何特征均相似的点对,大幅缩减匹配搜索空间,为SVD求解可靠初始变换矩阵提供数量充足、一致性强的匹配点对。

3.4. 初始配准矩阵的求解

若已经得到两个不同视角下的特征匹配点对是 P={ p i | p i P,i=1,2,,n } Q={ q i | q i Q,i=1,2,,n } p i q i 均为3 × 3的向量,则所求解旋转矩阵 R 和平移矢量 T ,应使下面的目标函数最小。

E= k=1 n q k ( R p k +T ) 2 (13)

采用SVD分解法[20],具体步骤如下所示:

1) 对于空间点集 { p i | p i P,i=1,2,,n } { q i | q i Q,i=1,2,,n } 分别计算 p q ,(其中 p= 1 n i=1 n p i q= 1 n i=1 n q i )。

2) 分别计算 p i q i

p i = p i p (14)

q i = q i q (15)

其中 i=1,2,,n

3) 由式(13),(14),(15)可得:

E= i=1 n q i R p i 2 (16)

4) 对于式(16)采用SVD矩阵分解法得到 R

5) 求解平移向量 T

T=q R p (17)

求出旋转矩阵 R 和平移向量 T 后对点 Q 中的任意一点 q ,可由式(18)求得点 q ˜ 转换到点集 P 坐标系下的对应点 p ˜ ,进而实现数据的拼接。

p ˜ = R 1 ( q ˜ T ) (18)

3.5. 鲸鱼优化算法

鲸鱼优化算法[21]是通过模拟自然界中座头鲸的“气泡网捕食策略”实现优化搜索目的,兼具全局探索与局部开发能力,被广泛应用于图像处理、特征选择和调度优化等领域。WOA的核心包括三种位置更新策略。

3.5.1. 包围猎物

当鲸鱼种群定位到猎物位置后,通过协同游动形成环状包围圈,并逐步缩小包围范围,该过程是种群个体向最优解聚集的局部开发行为。定义向量 r 1 r 2 a ,其中 r 1 r 2 是分量取值范围为[0, 1]的随机向量, a 的分量取值随着迭代次数的增加从2减小到0。根据式(19)和式(20)计算向量  A C ,用于控制鲸鱼个体的搜索方式:

A=2a r 1 a (19)

C=2 r 2 (20)

| A | 小于1时,表示当前鲸鱼个体距离最优个体较近,根据公式(21)和公式(22)包围最优个体:

D =C X best ( t )X( t ) (21)

X( t+1 )= X best ( t )A D (22)

其中, X best ( t ) 表示当前最优个体的位置。

3.5.2. 随机搜索

当鲸鱼种群无法感知猎物位置时,通过随机游走探索新解空间,实现全局勘探。当 | A |>1 时,则当前鲸鱼个体距离最优个体较远,根据公式(23)和公式(24)随机搜索:

D * =CXrand ( t )X( t ) (23)

X( t+1 )=Xrand( t )A D * (24)

其中, Xrand ( t ) 表示当前鲸鱼种群中的任意个体。

3.5.3. 气泡网捕食

在气泡网捕食阶段有两种捕食方式:收缩包围和螺旋更新。螺旋更新通过构建对数螺旋路径方程,精确模拟了鲸鱼个体以当前最优解为中心,螺旋式上升包围猎物的生物行为。在此阶段,鲸鱼个体会根据公式(25)进行攻击:

X( t+1 )={ X best ( t )AD,p<0.5 D e bl cos( 2πl )+ X best ( t ),p0.5 (25)

其中, D 为当前个体与最优解之间的距离, p 是[0, 1]的随机数,此时 C 的值为1。 b l 是控制螺旋线形状参数。WOA通过模拟座头鲸气泡网捕食策略优化配准矩阵,核心超参数与实现参数设置如下:最大迭代次数:200;鲸鱼种群数量:25;平移参数约束:lb_trans:−0.5、上界:0.5;旋转角约束:[−π, π];螺旋线形状参数:0.5;收敛因子(a)衰减公式:a = 2.0 × exp(−4.0 × iter/max_iter)。

3.6. WOA优化配置与数学定义

3.6.1. 核心参数化方式

刚性变换矩阵 T R 4×4 由旋转矩阵 R R 3×3 和平移向量 t R 3 构成,参数化向量定义为:

x= [ α,β,γ, t x , t y , t z ] T (26)

其中:

α,β,γ 分别为绕X、Y、Z轴的旋转角;

t x , t y , t z 分别为沿X、Y、Z轴的平移量。

旋转矩阵 R 由欧拉角通过轴角变换推导,数学表达式为:

R= R X ( α ) R Y ( β ) R Z ( γ ) (27)

其中各轴旋转矩阵为:

R X ( α )=[ 1 0 0 0 cosα sinα 0 sinα cosα ], R Y ( β )=[ cosβ 0 sinβ 0 1 0 sinβ 0 cosβ ], R Z ( γ )=[ cosγ sinγ 0 sinγ cosγ 0 0 0 1 ] (28)

最终刚性变换矩阵形式为:

T=[ R t 0 T 1 ] (29)

3.6.2. 适应度函数的具体形式

WOA的适应度函数以“配准均方根误差(RMSE)”为核心指标,目标是最小化变换后源点云与目标点云的距离误差,数学定义如下。

设源点云 P={ p i R 3 |i=1,2,,N } ,目标点云 Q={ q j R 3 |j=1,2,,M } ,经刚性变换 T 后源点云为 P ={ R p i +t|i=1,2,,N }

对每个变换后点 p i P ,通过K近邻搜索找到目标点云 Q 中距离最近的点 q i * ,适应度函数为:

f( x )= 1 K i=1 K p i q i 2 2 (30)

4. 实验结果与分析

实验选取斯坦福公共点云数据模型中的Bunny、Dragon、Buddha和Armadillo验证以上算法的性能。如图3所示为初始点云可视化结果,其中绿色点云为源点云、红色点云为目标点云,为了证明本文方法的有效性,分别使用SAC-IA算法、FPCS算法、PCA算法和本文方法对点云数据进行配准实验,并对结果进行分析。

4.1. 配准时间分析

运行时间是配准算法应用价值的核心指标,表1数据显示本文算法时间效率优势显著:相较于SAC-IA算法,在四种模型上耗时分别降低52.98%、64.14%、8.60%、37.38%,核心得益于哈希函数通过高维特征低维映射与空间分桶,缩减匹配点对搜索范围,规避了随机采样的高额开销;与FPCS算法相比,除Dragon模型耗时持平外,其余模型耗时降低14.76%~73.57%,破解了四点组合数指数增长的计算瓶颈;相较于PCA算法,Buddha、Armadillo模型耗时分别降低55.46%、16.24%,仅Bunny、Dragon模型耗时略高,但四种模型平均耗时(21.354 s)仍低于PCA算法(29.731 s),实现效率与精度协同优化。实验表明,本文算法通过哈希函数降维分桶与法向量验证降低匹配复杂度,结合WOA气泡网策略加快参数收敛,在四种模型上运行时间显著改善,综合性能稳定可靠,时间效率优于传统方法。

Table 1. Algorithm runtime (s)

1. 算法耗时(s)

Method

SAC-IA

FPCS

PCA

Proposed algorithm

Bunny

58.238

32.123

25.321

27.382

Buddha

74.929

52.967

60.333

26.871

Armadillo

11.956

41.234

13.046

10.928

Dragon

32.312

23.012

20.223

20.234

Figure 3. Comparison of registration results

3. 配准结果比较

4.2. 配准精度分析

为评估各算法的配准精度,本文选用均方根误差(RMSE)作为核心评价指标。为消除随机误差对结果的干扰,每个实验均独立重复5次,通过计算平均RMSE值确保实验结果的可靠性与统计显著性。如表2所示,本文算法在所有测试模型上的RMSE值均显著低于对比算法,平均精度提升52.36%~71.89%其中,Bunny模型的RMSE降至1.261 mm,较SAC-IA算法提升48.61%;Armadillo模型RMSE为2.131 mm,较PCA算法提升46.92%。本文算法的精度优势源于WOA的全局优化能力与哈希函数的匹配稳定性:WOA通过收敛因子线性衰减与随机向量动态调节,实现全局探索与局部开发的自适应平衡,有效摆脱了传统算法对初始位姿的强依赖性:哈希函数结合法向量的双重筛选机制,降低了误匹配率,为SVD求解可靠初始变换矩阵提供了高质量四配点对,为后续优化奠定了良好基础。

Table 2. Registration accuracy RMSE (mm)

2. 配准精度RMSE (mm)

Method

SAC-IA

FPCS

PCA

Proposed algorithm

Bunny

2.454

5.224

4.715

1.261

Buddha

2.512

5.523

4.232

1.592

Armadillo

3.343

3.213

6.823

2.131

Dragon

3.541

4.623

5.747

2.928

4.3. 消融实验与鲁棒性分析

4.3.1. 消融实验设计

为验证本文算法各模块的独立贡献,设计如下消融实验方案:以Armadillo模型为例,各模块消融实验结果如表3所示:

Table 3. Ablation experimental results

3. 消融实验结果

实验配置

RMSE均值(mm)

标准差

平均耗时(s)

本文算法

2.703

1.542

15.406

仅哈希 + SVD

6.312

1.345

1.873

仅WOA优化

3.075

1.538

157.737

根据表3的消融实验结果,本文算法在配准精度、运行效率与模块协同性方面展现出显著优势。与仅哈希 + SVD配置相比,完整算法的RMSE均值降低57.2%,证明WOA优化模块对初始变换矩阵的迭代优化能有效提升配准精度;与仅WOA优化配置相比,完整算法的运行时间缩减93.4%,表明哈希匹配模块通过快速筛选高质量初始匹配点对,极大提升了算法效率。在稳定性方面,完整算法标准差与各独立模块相当。实验结果验证了哈希匹配与WOA优化模块的协同增强效应:哈希匹配为WOA提供接近全局最优的初始解;WOA则通过智能搜索策略对初始解进行精细调优,在保证算法实时性的同时保证了配准精度。

4.3.2. 鲁棒性测试

为评估算法在不同挑战场景下的鲁棒性,以Dragon模型为例,我们测试向点云按比例添加高斯噪声进行配准效果测试;通过随机扰动点云角度(±10˚)来进行点云不同重叠率配准效果测试。

Table 4. Algorithm registration accuracy under different noise levels

4. 不同干扰水平下的算法配准精度

测试场景

干扰强度

本文算法(mm)

配准成功率(%)

高斯噪声测试

无噪声

1.812

100%

0.5%

2.342

90%

1.0%

4.96

80%

1.5%

4.722

80%

离群点个数

0

1.816

100%

100

3.421

90%

200

3.523

90%

300

2.616

90%

表4数据可知,本文算法在高斯噪声与离群点干扰场景下展现出良好的抗干扰能力:无噪声干扰时,算法配准精度达1.812 mm,配准成功率100%,奠定了可靠的基础性能;随着高斯噪声强度从0.5%提升至1.5%,配准精度虽从2.342 mm波动至4.96 mm再回落至4.722 mm,但配准成功率仅从90%降至80%,未出现大幅衰减,表明算法对中高强度高斯噪声具有一定的容忍性;在离群点干扰测试中,即使离群点数量从0增加至300个,配准成功率始终稳定在90%以上,且当离群点为300个时,配准精度较100个、200个离群点场景反而有所提升,体现了哈希函数与法向量联合筛选机制对离群点的有效过滤作用。综上,本文算法在高斯噪声干扰与离群点存在的复杂场景中,仍能保持稳定的配准精度与较高的成功率,抗干扰鲁棒性突出。

Table 5. Algorithm performance under random angular perturbation

5. 随机角度扰动下的本文算法性能

点云数据

配准精度(mm)

配准时间(s)

Bunny

2.287

7.851

Buddha

3.971

23.561

Armadillo

2.152

4.334

Dragon

3.037

6.709

表5结果显示,本文算法在随机角度扰动导致点云重叠率变化的场景中,对不同几何结构的点云模型均表现出稳定的适配性。整体来看,无论点云模型的几何复杂度如何,本文算法均能在随机角度扰动场景下完成有效配准,未出现配准失效的情况,表明算法对角度扰动引发的点云重叠率变化具有较强的适应性,在不同结构特征的点云配准任务中均能稳定发挥作用。

4.3.3. 鲁棒性分析结论

综合上述测试结果,本文算法在复杂干扰场景与角度扰动场景下的鲁棒性得到充分验证:在高斯噪声与离群点干扰下,未因干扰强度增加而出现崩溃性下降,显著优于传统算法在噪声或离群点场景中易出现的误匹配、精度骤降问题。这一优势源于哈希函数的精准匹配筛选与WOA的自适应优化,双重机制确保算法在复杂场景中仍能稳定发挥配准作用。

5. 结论

本文提出一种哈希函数与鲸鱼优化算法(WOA)协同的点云配准新方法,针对传统算法配准精度低、耗时久、鲁棒性不足的核心问题,构建了“高效匹配–精准优化”的双重机制,主要研究成果如下:引入哈希函数实现高维点云特征的低维映射,结合球面坐标离散化与法向量编码构建哈希表,大幅缩减匹配点对搜索空间,降低了计算复杂度,采用WOA对初始配准矩阵进行迭代优化,利用其“气泡网捕食策略”的全局探索与局部开发平)衡能力,有效避免局部最优解,提升了变换参数的求解精度,降低了算法对初始位姿的敏感性,斯坦福数据集的实验验证表明,所提算法在点云模型上的配准时间与精度综合性能显著优于传统算法,实现了效率与精度的协同提升。

未来研究将围绕以下方向展开:优化WOA的迭代机制,引入自适应权重或混合优化策略,进一步缩短迭代时间,提升大规模点云处理的实时性;探索基于深度学习的匹配点对筛选机制,结合点云语义特征,增强算法在低重率、高声、复杂几何结构场景下的鲁棒性;设计更贴合点云配准特性的适应度函数,融合多维度误差指标,进一步提升配准精度与稳定性拓展算法在自动驾驶、三维重建等实际场景中的应用范围。

基金项目

安徽省古建筑智能感知与高维建模国际联合研究中心重点实验室开放课题(GJZZX2022KF03)。

NOTES

*通讯作者。

参考文献

[1] Duan, H., Wang, P., Huang, Y., Xu, G., Wei, W. and Shen, X. (2021) Robotics Dexterous Grasping: The Methods Based on Point Cloud and Deep Learning. Frontiers in Neurorobotics, 15, Article ID: 658280. [Google Scholar] [CrossRef] [PubMed]
[2] Beetz, M., Banerjee, A. and Grau, V. (2022) Point2mesh-Net: Combining Point Cloud and Mesh-Based Deep Learning for Cardiac Shape Reconstruction. In: Camara, O., et al., Eds., Lecture Notes in Computer Science, Springer, 280-290. [Google Scholar] [CrossRef
[3] Landsiedel, C. and Wollherr, D. (2017) Global Localization of 3D Point Clouds in Building Outline Maps of Urban Outdoor Environments. International Journal of Intelligent Robotics and Applications, 1, 429-441. [Google Scholar] [CrossRef] [PubMed]
[4] Wang, Q., Tan, Y. and Mei, Z. (2019) Computational Methods of Acquisition and Processing of 3D Point Cloud Data for Construction Applications. Archives of Computational Methods in Engineering, 27, 479-499. [Google Scholar] [CrossRef
[5] Liu, J., Zhang, Y., Zhang, L., et al. (2025) Point Cloud Registration Algorithm Based on Dynamic Fusion of Multi-Scale Features. Laser and Optoelectronics Progress, 62, Article 0415001.
[6] Nguyen, M., Vats, S., van Damme, S., van der Hooft, J., Vega, M.T., Wauters, T., et al. (2023) Characterization of the Quality of Experience and Immersion of Point Cloud Videos in Augmented Reality through a Subjective Study. IEEE Access, 11, 128898-128910. [Google Scholar] [CrossRef
[7] Sun, R., Zhang, E., Mu, D., Ji, S., Zhang, Z., Liu, H., et al. (2023) Optimization of the 3D Point Cloud Registration Algorithm Based on FPFH Features. Applied Sciences, 13, Article 3096. [Google Scholar] [CrossRef
[8] Xu, Z. and Wang, D. (2022) Research on Point Cloud Registration Algorithm Based on Boundary Harris-3D Points and 4pcs. Journal of Physics: Conference Series, 2258, Article 012002. [Google Scholar] [CrossRef
[9] 陈义, 王勇, 李金龙, 等. 基于主成分分析的高效点云配准算法[J]. 激光与光电子学进展, 2023, 60(14): 368-375.
https://www.opticsjournal.net/Articles/OJ28caa829b61fac39/FullText
[10] Liu, H., Liu, T., Li, Y., Xi, M., Li, T. and Wang, Y. (2019) Point Cloud Registration Based on MCMC-SA ICP Algorithm. IEEE Access, 7, 73637-73648. [Google Scholar] [CrossRef
[11] Wu, M.P., Liu, Y. and Hu, X.P. (2007) Application of ICP Algorithm in Geomagnetism Aided Navigation System. Aerospace Control, 25, 17-21, 26.
[12] Zhang, L., Choi, S. and Park, S. (2011) Robust ICP Registration Using Biunique Correspondence. 2011 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission, Hangzhou, 16-19 May 2011, 80-85. [Google Scholar] [CrossRef
[13] Shihui Ying,, Jigen Peng,, Shaoyi Du, and Hong Qiao, (2009) A Scale Stretch Method Based on ICP for 3D Data Registration. IEEE Transactions on Automation Science and Engineering, 6, 559-565. [Google Scholar] [CrossRef
[14] Fan, Q., Liu, P., Yang, J., et al. (2020) Improved 3D-NDT Point Cloud Registration Algorithm Based on 3D-Harris and FPFH. Journal of Graphics, 41, 567-575.
[15] Meyer, G.P. (2021) An Alternative Probabilistic Interpretation of the Huber Loss. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, 20-25 June 2021, 5261-5269. [Google Scholar] [CrossRef
[16] Teixeira, T.S.F.X., Teodoro, G., Valle, E., et al. (2013) Scalable Locality-Sensitive Hashing for Similarity Search in High-Dimensional, Large-Scale Multimedia Datasets. arXiv:1310.4136.
[17] Liu, H., Wang, R., Shan, S. and Chen, X. (2016) Deep Supervised Hashing for Fast Image Retrieval. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 2064-2072. [Google Scholar] [CrossRef
[18] Weng, Z., Zhu, Y. and Liu, R. (2020) Fast Search on Binary Codes by Weighted Hamming Distance. ArXiv:2009.08591.
[19] 韩浩宇, 张元, 韩燮. 一种改进的激光点云滤波算法[J]. 激光与光电子学进展, 2021, 58(20): 85-91.
https://www.opticsjournal.net/Articles/OJfc4755754c00d684/FullText
[20] 秦绪红, 赵杰, 程俊廷. 基于标志点的三维数据拼接方法研究[J]. 机械制造与自动化, 2013, 42(1): 134-136.
https://kns.cnki.net/kcms2/article/abstract?v=VYuoLtjwl8M9ukEMoLthv7UgxizMAo0H-pmv44DchTIdrAh8NzNfMB8VEtb1M8RJsIQu68CvmKG0nX4WMWzsC78Zz8C02zKO0trOMxeAK-oP_ukbb9YXPCViTNAJBqL2-8oGtC2M_JFElH3sbZi1CRKBrODj2LEEObZmggdsSBkoUWy7zIPIVQ==&uniplatform=NZKPT&language=CHS
[21] 黄开启, 许军. 多策略改进鲸鱼优化算法的移动机器人路径规划[J]. 传感器与微系统, 2025, 44(7): 121-125.
https://cgqj.cbpt.cnki.net/WKE2/WebPublication/paperDigest.aspx?paperID=462283a6-8ba3-460a-a3fb-9cde3069295f