水下目标三维点云生成优化方法
Optimization Method of 3D Point Cloud Generation for Underwater Target
DOI: 10.12677/OJTT.2022.111004, PDF, HTML, XML, 下载: 301  浏览: 620  国家科技经费支持
作者: 袁利毫, 杨永俊, 昝英飞, 秦 浩:哈尔滨工程大学船舶工程学院,黑龙江 哈尔滨
关键词: 特征点检测图像匹配三维重构点云模型Feature Point Detection Image Matching 3D Reconstruction Point Cloud Model
摘要: 由于水下光衰严重、能见度低,导致ROV作业时采集的水下图像特征难以提取,重建的水下目标三维点云辨识质量低。本文提出一种改进SIFT尺度空间的水下目标三维点云生成优化方法,该方法增强了特征提取时颜色边缘特征信息的感知,提高了有效特征点匹配数。基于ROV拍摄的水下数据集实验结果表明,相比于SIFT传统算法,该方法图像特征点数量增加2.9倍,匹配数量增加1.78倍,点云数量增加1.04倍,三维重构模型效果显著。因此该方法可在一定程度解决水下图像特征点难检测及生成的三维模型质量差的问题。
Abstract: Due to the serious underwater light attenuation and low visibility, it is difficult to extract the un-derwater image features collected during ROV operation, and the recognition quality of the reconstructed underwater target 3D point cloud is low. In this paper, an optimization method for underwater target 3D point cloud generation based on improved SIFT scale space is proposed. This method enhances the perception of color edge feature information and improves the number of effective feature points. The experimental results of underwater dataset taken based on ROV show that compared with the traditional SIFT algorithm, the number of image feature points, matching and point clouds are increased by 2.9 times, 1.78 times and 1.04 times respectively. The effect of 3D reconstruction model is remarkable. Therefore, this method can solve the problem of difficult detection of underwater image feature points and poor quality of 3D model to a certain extent.
文章引用:袁利毫, 杨永俊, 昝英飞, 秦浩. 水下目标三维点云生成优化方法[J]. 交通技术, 2022, 11(1): 31-43. https://doi.org/10.12677/OJTT.2022.111004

1. 引言

水下机器人作业环境存在能见度低、水质浑浊与扬沙等现象,使得采集的图像缺乏有效感知信息,图像检测算法难以提取目标边缘、颜色等特征,并且生成的三维点云较云为稀疏,降低了三维重建模型的成像质量。因此,增强ROV (Remotely Operated Vehicle)采集的水下图像特征,提高有效特征点,是目前亟需解决的难题。

特征点检测作为三维重建必不可少的环节,国内外均有着长期的研究。特征点检测需要图像具有明显的物体边缘特征信息,以便精准的描述目标物体。因此,需要对采集的水下图像进行预处理,如张阳等 [1] 通过ORB (Oriented FAST and Rotated BRIEF)特征点法对水下图像进行特征提取与匹配时,面对光在水体吸收和散射作用下导致图像质量下降的问题,选择直方图均衡化作为图像处理的方法,实验结果验证了图像处理对于水下图像特征点提取、匹配数量方面均具有较大改进,尤其是低对比度的图像,误匹配数明显减少;李海森等 [2] 在对多波束声纳图像进行SIFT (Scale-invariant feature transform)特征跟踪时,通过中值滤波和动态亮度分配对图像进行处理,使得提取到的SIFT特征包含了更多的图像信息;王昕平等 [3] 在基于SIFT特征的水下图像拼接研究中,提出了多尺度融合的图像增强算法来修复深水域偏色严重的问题,提高了水下图像配准的准确率和拼接的效果。图像处理之后就可以进行特征点检测,其中最著名的是Kanade Lucas Tomasi (KLT)方法,该方法使用光流法跟踪出现在视频下一帧中的关键点 [4] [5] [6]。为了加快KLT的速度,Sinha等人 [7] [8] 借助KLTGPU的图形处理单元(GPU)上实现了KLT。但是,类似KLT的方法很容易产生错误的特征匹配,不利于SFM (Structure-From-Motion,运动恢复结构)和SLAM (Simultaneous Localization and Mapping)中的特征跟踪 [9]。为了提高类KLT方法的精度,Myung等 [10] 建议使用惯性测量单元(IMU)辅助KLT减少误差累积。但是,类似KLT的方法在亮度、对比度变化明显时会增加失误,这会加剧SFM [11] [12] 和SLAM [13] [14] 中的特征漂移,更加不适应水下环境。最近,基于特征检测和匹配框架的特征跟踪已受到计算视觉领域 [15] [16] 和计算机图形学 [14] 的广泛关注。例如,Zhang等 [15] 提出了一种针对SFM非连续帧的高效特征跟踪算法,该算法使用两次遍历匹配对来处理物体遮挡问题以避免特征漂移。为了提高SLAM系统特征检测的鲁棒性,Garrigues等人 [17] 提出了一种半密集点跟踪算法来为移动设备生成密集的轨迹。Lee等 [18] 提出了一种使用光流的混合特征跟踪来检测无标记增强现实的独特不变特征点。在Bundler系统中,SIFT和BF方法用于检测和匹配关键点,计算时间较长。Buchanan等 [19] 提出了一种交互式特征跟踪方法,该方法使用KD-Tree和动态编程技术来加速特征描述符匹配。为了使特征跟踪方法获得准确的特征对应,Zhang等 [20] 提出使用极线约束来消除其极线附近的离群值。Wu等 [21] 提出的Viewpoint-Invariant Patches (VIP)来匹配高分辨率的图像,然后产生准确匹配的集合。但是,VIP功能非常耗时,降低了特征跟踪的效率。为了提高时间效率,可以使用RANSAC算法剔除异常值,例如Lee等 [18] 提出了一种用于增强现实的混合特征跟踪方法,该方法使用多种策略,包括光流、RANSAC、极线约束,以去除异常值,然后得出正确的匹配项。此外,使用快速特征检测器可以加快特征跟踪的过程,例如Zach等 [22] 建议使用SURF (Speeded-Up Robust Features)代替SIFT,以获得更快的计算速度。Svarm等 [23] 提出了一种基于图论的点跟踪方法,并采用了Gomory-Hu算法 [24] 删除不正确的匹配项。

本文提出了一种水下目标三维点云生成优化方法,通过改进SIFT特征检测,提高对水下目标图像的特征信息以及边缘信息提取能力,消除环境中特征点的误检测,优化生成的三维点云模型,并基于Visual Studio 2017和OpenCV计算机视觉库,在ROV采集的水下图像序列中验证该方法的有效性。

2. 水下目标图像序列特征检测优化方法

2.1. 目标三维重建

SFM传统算法是一种基于无序图片进行三维重建的离线算法。如图1所示,首先从图片中提取出焦距信息,然后利用SIFT特征提取算法提取图像特征点,接着用KD-Tree模型计算不同图片特征点之间的欧式距离进行特征点匹配,获得特征点匹配个数达到要求的图像对。针对每一对图像,计算对极约束,估计本质矩阵(E矩阵)与基础矩阵(F矩阵),通过计算较优匹配对距离来筛选符合匹配长度的优良匹配对,再用经典的RANSAC (随机抽样一致性)算法对其中的误匹配对进行剔除。同时,特征点在匹配对中链式地进行传递形成轨迹。

使用SFM算法对图片匹配对进行三维重建。首先,对初始化选择的两幅图片进行集束调整(Bundle Adjustment, BA),然后循环添加新的图片进行BA,直到无图片添加,BA优化结束。最终得到相机估计参数和场景几何信息,即稀疏的3D点云。

Figure 1. SFM block diagram

图1. SFM结构图

2.2. SIFT特征点检测算法

SIFT算法通过计算多尺度空间中关键点的位置、方向与尺度信息,以生成特征点描述子。SIFT算法充分考虑了图像变换过程中出现的光照,尺度,旋转等变化,其检测的关键点具有精度高、尺度旋转不变性等特点,同时不易受到噪声和亮度变化的影响。SIFT特征点提取过程包括以下四个阶段:

1) 多尺度空间构造

L ( x , y , σ ) = G ( x , y , σ ) I ( x , y ) (1)

式中, I ( x , y ) 为输入图像, G ( x , y , σ ) 为可变高斯函数,定义如下所示:

G ( x , y , σ ) = 1 2 π σ 2 e x 2 + y 2 2 σ 2 (2)

式中, σ 是尺度空间因子,决定图像模糊平滑处理的程度。 ( x , y ) 表示在 σ 尺度下的图像像素坐标。通过调整参数 σ 生成高斯尺度空间,然后将高斯尺度空间中相邻层的卷积结果进行相减,得到高斯差分(DOG)金字塔,计算如下所示:

D ( x , y , σ ) = [ G ( x , y , k σ ) G ( x , y , σ ) ] I ( x , y ) = L ( x , y , k σ ) L ( x , y , σ ) (3)

式中, D ( x , y , σ ) 表示响应图像,k表示其它相邻尺度空间倍数,为常系数。

2) 检测尺度空间极值点

针对每个采样点和相邻的26个点(同尺度周围的8个点以及相邻上下尺度的各9个点)进行比较,如果该点为其邻域的极值点,我们则认为是候选特征点。

3) 特征点方向分配

m ( x , y ) = { [ L ( x + 1 , y ) L ( x 1 , y ) ] 2 + [ L ( x , y + 1 ) L ( x , y 1 ) ] 2 } 1 / 2 (4)

θ ( x , y ) = arg tan [ L ( x , y + 1 ) L ( x , y 1 ) L ( x + 1 , y ) L ( x 1 , y ) ] (5)

式中, m ( x , y ) 表示梯度模值, θ ( x , y ) 表示梯度方向。

4) 构造特征向量

通过以上三个步骤,每个特征点被分配坐标位置、尺度和方向,为保证其旋转不变性,还要将特征点区域旋转(为特征点的方向),由于进行旋转,则采样点坐标改变,新坐标定义如下所示:

[ x y ] = [ cos θ sin θ sin θ cos θ ] [ x y ] (6)

将坐标轴旋转到关键点方向,采样窗口是以关键点为中心的16 * 16的邻域大小,将采样窗口分割成为16个4 * 4的子块,计算在每个子块上8个方向的梯度直方图,特征向量由所有子块的梯度方向的直方图组成,所以一个关键点可以具有8 * 16 = 128维的特征向量。

2.3. 改进的SIFT尺度空间构造方法

由于水中悬浮颗粒对光的吸收和散射,会造成原始图像清晰度低、目标边缘模糊和颜色失真,从而导致SIFT算法检测的特征点数量减少,为后续的相机运动轨迹恢复及三维重建带来挑战。针对上述问题,本文提出了一种改进SIFT尺度空间的构造方法,通过在多尺度空间构造过程中引入图像滤波模块,有效地提高了目标边缘特征点数量。具体特征点提取流程如图2所示。

Figure 2. Flow chart of feature point extraction based on underwater image

图2. 基于水下图像的特征点提取流程图

本文提出的SIFT尺度空间构造方法,针对图像给定的任一像素,通过在式(1)中增加图像噪声抑制与目标边缘增强项,得到边缘特征明显的响应图像,计算式如下所示:

L ( x , y , σ ) = G ( x , y , σ ) k , l w ( ξ , x , k , l ) I q ( x , y ) k , l w ( ξ , x , k , l ) (7)

式中, I q ( x , y ) 表示图像I的卷积降噪项,定义如下:

I q ( x , y ) = m e d { f ( x k , y l ) , ( k , l C W ) } (8)

式中, C W 核尺寸。通过卷积网络实现对滑动窗口中的原始图像降噪,消除图像中由水下悬浮颗粒引入的椒盐噪点。式(7)中 w ( ξ , x , k , l ) 表示为像素的权重和,定义如下:

w ( ξ , x , k , l ) = c ( ξ , x ) s ( ξ , x ) (9)

式中, c ( ξ , x ) 计算像素点I到中心点的空间距离权重值, s ( ξ , x ) 表示相邻像素值权重。在图像信号幅度平坦区域, I q 中每个像素点 s ( ξ , x ) 的值相近,空间距离权重 c ( ξ , x ) 主导滤波效果;在目标边缘区域,边缘同侧的 s ( ξ , x ) 值相近,且远大于边缘另一侧的值,此时另一侧的像素点的权重对滤波结果几乎不影响,目标边缘信息得到增强。在平坦区域出现扬尘噪声点时,噪声点周围的信号的权值都很小,在进行归一化后,这些权值得到了提升,因此具有一定的效果。定义如下:

c ( ξ , x ) = e 1 2 ( ξ x σ d ) 2 (10)

s ( ξ , x ) = e 1 2 ( I q ( ξ ) I q ( x ) σ d ) 2 (11)

最后通过不同的高斯平滑参数 σ 1 , σ 2 , σ 3 计算DOG响应图像,计算式如下:

ImpDOG f ( x , y ) = 1 2 π [ 1 σ 1 exp ( x 2 + y 2 2 σ 1 2 ) ] g ( x , y ) = 1 2 π [ 1 σ 2 exp ( x 2 + y 2 2 σ 2 2 ) ] g ( x , y ) (12)

检测DOG响应图像中的极值并标记,得到图像特征点。

3. 实验结果与分析

3.1. 水下目标图像特征点检测及匹配结果

本文基于ROV拍摄烟台近海水产养殖基地的水下图像资料,分别从特征点检测、有效特征匹配对及三维重建三个方面讨论改进尺度空间构造方法与传统SIFT特征提取算法的性能差异。实验环境如下表1所示。

Table 1. Experimental data source and processing platform

表1. 实验数据来源及处理平台

图3(a),图3(b),图3(e),图3(f)可知,改进算法在物体边角处(海胆及海参的突触、扇贝的外壳等)检测的特征点数量比SIFT算法显著提升,式(8)增强了图像的边缘信息,提高了图像局部极值点数量;在图3(c),图3(d),图3(i)~(n)中,改进算法在物体重叠区域的特征点数量与密度明显高于SIFT算法,这是由于在构造多尺度空间过程中,改进算法消除了悬浮颗粒对物体的遮挡使得物体轮廓更加明显;在图3(g),图3(h),图3(o)~(t)中,物体密集排列且重叠区域较少,改进算法相比SIFT在检测特征点高出301%与131.88%,其特征点主要分布在物体轮廓,这表明在多尺度空间构造中对物体边缘信息增强,有效地提高了特征点检测数量。

实验结果表明,本文算法生成的特征响应图像,增强了物体的辨识度,提高了物体边缘信息的感知,消除了物体外特征点干扰,目标物体特征点数量增加,表达出了更多的特征信息及边缘信息。

(a) A组SIFT传统算法特征点检测 (b) A组本文算法特征点检测 (c) B组SIFT传统算法特征点检测 (d) B组本文算法特征点检测 (e) C组SIFT传统算法特征点检测 (f) C组本文算法特征点检测 (g) D组SIFT传统算法特征点检测 (h) D组本文算法特征点检测 (i) E组SIFT传统算法特征点检测 (j) E组本文算法特征点检测 (k) F组SIFT传统算法特征点检测 (l) F组本文算法特征点检测 (m) G组SIFT传统算法特征点检测 (n) G组本文算法特征点检测 (o) H组SIFT传统算法特征点检测 (p) H组本文算法特征点检测 (q) I组SIFT传统算法特征点检测 (r) I组本文算法特征点检测 (s) J组SIFT传统算法特征点检测 (t) J组本文算法特征点检测

Figure 3. Underwater image target feature point detection rendering

图3. 水下图像目标特征点检测效果图

各场景中特征点的数据统计如图4所示:

Figure 4. Columnar comparison chart of underwater image target feature point inspection measurement

图4. 水下图像目标特征点检测量柱状对比图

图4水下图像目标特征点检测量对比所示,本文算法的目标物体特征点检测量均是传统SIFT算法中特征点检测量的1.51倍以上,如特征点增加较大的实验组,F组和H组分别增加了10倍与9倍左右。水下环境中光受海水散色及吸收较严重,海水较为浑浊,本文算法提出的SIFT尺度空间消除了图像中环境的干扰,使生成的点云模型更具物体特征信息和空间层次信息,得到的图像特征点数量约为传统算法的3.9倍,本文算法在提取水下图像特征点中更具优势。

然后分别对不同角度拍摄的水下目标物体进行特征点匹配,消除误匹配对,匹配效果如图5 (左图为SIFT传统算法,右图为本文算法)所示。

(a) A组图像匹配对 (b) B组图像匹配对 (c) C组图像匹配对 (d) D组图像匹配对 (e) E组图像匹配对 (f) F组图像匹配对 (g) G组图像匹配对 (h) H组图像匹配对 (i) I组图像匹配对 (j) J组图像匹配对

Figure 5. Effect picture of feature point matching (Left: SIFT algorithm; Right: This algorithm)

图5. 特征点匹配效果图(左:SIFT算法;右:本文算法)

图5特征点匹配效果图所示,相较于SIFT原算法,本文算法得到的图像中目标物体的特征点匹配对数远大于物体外的匹配对数,虽然目标物体外的匹配对数减少了,但整个图像的匹配对数并没有因此而减小,改进的SIFT算法检测出更多的目标物体特征点。如图6匹配对对比图所示,本文算法较原SIFT算法匹配对数均有了提高。由于B组图像目标物体几乎占据了整个图像,不是改进算法的“理想对象”,因此表现出与SIFT原算法相同的性能,致使匹配对数增加不明显;其他组匹配对数至少增加0.32倍,如特征点数分别增加10倍与9倍的F组和H组,匹配对数增加了5.44倍和4.46倍。

Figure 6. Comparison of underwater image object matching to cylindrical image

图6. 水下图像目标物体匹配对数柱状对比图

验证的10组图像中,本文算法得到的匹配对数是SIFT原算法的2.78倍,算法效果明显,验证了本文算法能有效提高中小型水下目标图像特征点匹配对数。实验表明,本文改进的SIFT算法提高了目标物体的特征点数量,使得匹配对数量增加,尤其是物体边缘处的图像匹配对数,表达出了更多纹理细节信息,使得点云模型更具特征信息和空间立体感,有利于优化三维点云模型。

3.2. 水下图像三维点云重构

根据本文算法,对120张水下图像序列进行处理,得到的图片匹配对进行SFM,如图7所示,传统SIFT算法以及本文提出的改进的SIFT算法对水下图像序列处理后生成的三维点云模型对比。

(a) SIFT算法生成的点云数据 (b) 本文算法生成的点云数据 (c) SIFT算法生成的点云数据 (d) 本文算法生成的点云数据

Figure 7. Rendering of point cloud model

图7. 点云模型效果图

Table 2. The number of 3D point clouds generated by each image sequence

表2. 各图像序列生成的三维点云数量

实验结果表明,经过水下图像优化方法生成的点云数据,不仅提高了点云模型的几何特征、颜色特征,而且从表2中统计数据可见,本文算法生成的点云模型在点云的数量上是传统算法的2~4倍,从图7可见,本文方法得到的点云模型,其特征主要表现在优化后的点云模型噪音、杂质较少,模型清晰度高。经过本文方法的颜色响应计算后,图像特征信息明显,边缘信息突出,特征响应计算则将目标物体从背景中分离出来,剔除了环境干扰的影响,所以在最终生成的点云模型中,环境影响因素造成的噪音点被消除,噪声点云数量降低。在三维重构后得到的点云信息既能反应水下较为真实的结构,也能获得较为准确的目标物体的物理几何信息,从而有利于随后的研究观察,以及优化实地建模效果,工程意义显著。

4. 结论

本文提出了一种三维点云模型生成优化方法,并基于ROV拍摄的水下图像进行了验证。该方法在水下图像特征点检测、图像匹配、点云重构模型方面与SIFT原有算法进行了比较。在特征点检测方面,不仅增强目标物体的辨识度和边缘信息的感知能力,还消除目标物体以外特征点的干扰,有效解决水下图像目标物体难检测的问题;在图像匹配上,增加了图像间目标物体处特征点的匹配对,减小了目标物体以外特征点的匹配对;在点云模型重构方面,本文算法更有利于识别出目标物体,生成模型更具目标物体特征信息及空间层次信息。

实验证明,本文算法相较于SIFT算法更有利于处理水下图像三维点云模型重构问题,该方法为之后的水下环境观察、研究、建模提供了一定的工程价值。

基金项目

本文项目来自于国家重点研发计划(2018YFC0309400)。

参考文献

[1] 张阳, 徐爽, 朱建军, 等. 水下视觉SLAM图像增强研究[J]. 海洋信息, 2020, 35(4): 29-34.
[2] 李海森, 高珏, 徐超, 等. 应用TBD的多波束声呐图像序列SIFT特征追踪[J]. 哈尔滨工程大学学报, 2016, 37(8): 1009-1014.
[3] 王昕平, 张森林, 刘妹琴, 樊臻. 基于多尺度图像融合和SIFT特征的水下图像拼接研究[J]. 计算机应用与软件, 2021, 38(5): 213-217+230.
[4] Lucas, B. (1981) An Iterative Image Registration Technique with an Application to Stereo Vision (DARPA). Proceeding IJCAI, 81, 674-679.
[5] Tomasi, C. and Kanade, T. (1991) Detection and Tracking of Point Features. International Journal of Computer Vision, 9, 137-154.
https://doi.org/10.1007/BF00129684
[6] Birchfield, S. (1997) Derivation of Kanade-Lucas-Tomasi Tracking Equation. Unpublished Notes, 44, 1811-1843.
[7] Frahm, S., Pollefeys, M. and Genc, Y. (2000) GPU-Based Video Feature Tracking and Matching. Workshop on Edge Computing Using New Commodity Architectures, 2000, 189-196.
[8] Sinha, S.N., Frahm, J.M., Pollefeys, M., et al. (2011) Feature Tracking and Matching in Video Using Programmable Graphics Hardware. Machine Vision Applications, 22, 207-217.
https://doi.org/10.1007/s00138-007-0105-z
[9] Poling, B., Lerman, G. and Szlam, A. (2014) Better Feature Tracking through Subspace Constraints. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, 23-28 June 2014, 3454-3461.
https://doi.org/10.1109/CVPR.2014.441
[10] Hwangbo, M., Kim, J.S. and Kanade, T. (2009) Inertial-Aided KLT Feature Tracking for a Moving Camera. Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems, St Louis, 11-15 October 2009, 1909-1916.
https://doi.org/10.1109/IROS.2009.5354093
[11] Wilson, K. and Snavely, N. (2013) Network Principles for SfM: Disambiguating Repeated Structures with Local Context. Proceedings of the IEEE International Conference on Computer Vision, Sydney, 1-8 December 2013, 513-520.
https://doi.org/10.1109/ICCV.2013.69
[12] Ceylan, D., et al. (2014) Coupled Structure-from-Motion and 3D Symmetry Detection for Urban Facades. ACM Transactions on Graphics, 33, 1-15.
https://doi.org/10.1145/2517348
[13] Endres, F., Hess, J., Engelhard, N., et al. (2012) An Evaluation of the RGB-D SLAM System. Proceedings IEEE International Conference on Robotics Automation, St. Paul, 14-18 May 2012.
https://doi.org/10.1109/ICRA.2012.6225199
[14] Engel, J., Schps, T. and Cremers, D. (2014) LSD-SLAM: Large-Scale Direct Monocular SLAM. 13th European Conference on Computer Vision—ECCV, Zurich, 6-12 September 2014, 834-849.
https://doi.org/10.1007/978-3-319-10605-2_54
[15] Zhang, G., Dong, Z., Jia, J., et al. (2010) Efficient Non-Consecutive Feature Tracking for Structure-from-Motion. European Conference on Computer Vision, Heraklion, 5-11 September 2010, 422.
https://doi.org/10.1007/978-3-642-15555-0_31
[16] Zhang, G. and Vela, P.A. (2015) Good Features to Track for Visual SLAM. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, 7-12 June 2015, 1373-1382.
https://doi.org/10.1109/CVPR.2015.7298743
[17] Garrigues, M. and Manzanera, A. (2012) Real Time Semi-Dense Point Tracking. Proceedings of the International Conference on Image Analysis and Recognition (ICIAR 2012), Aveiro, 25-27 June 2012, 245-252.
[18] Lee, T. and Hollerer, T. (2008) Hybrid Feature Tracking and User Interaction for Markerless Augmented Reality. Proceedings of the Virtual Reality Conference, 2008 VR ‘08 IEEE, Reno, 8-12 March 2008, 145-152.
https://doi.org/10.1109/VR.2008.4480766
[19] Buchanan, A. and Fitzgibbon, A. (2006) Interactive Feature Tracking Using K-D Trees and Dynamic Programming. 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), New York, 17-22 June 2006, 626-633.
[20] Zhang, G., Liu, H., Dong, Z., et al. (2015) ENFT: Efficient Non-Consecutive Feature Tracking for Robust Structure-from-Motion. IEEE Transactions on Image Processing, 25, 5957-5970.
https://doi.org/10.1109/TIP.2016.2607425
[21] Wu, C., Clipp, B., Li, X., et al. (2008) 3D Model Matching with Viewpoint-Invariant Patches (VIP). 2008 IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, 23-28 June 2008, 1-8.
[22] Zach, C., Klopschitz, M. and Pollefeys, M. (2010) Disambiguating Visual Relations Using Loop Constraints. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, 13-18 June 2010, 1426-1433.
https://doi.org/10.1109/CVPR.2010.5539801
[23] Trees, G.H. (2012) Point Track Creation in Unordered Image Collections Using Gomory-Hu Trees. Proceedings of the 21st International Conference on Pattern Recognition (ICPR2012), Tsukuba, 11-15 November 2012, 2116-2119.
[24] Gomory, R.E. and Hu, T.C. (1961) Multi-Terminal Network Flows. Journal of SIAM, 9, 551-570.
https://doi.org/10.1137/0109047