1. 引言
数字高程模型(DEM)作为地理信息系统(GIS)及遥感应用中的基础数据[1],其高精度和自动化生产技术始终是学界和行业关注的重点。随着激光雷达(LiDAR)、摄影测量等多源点云数据的快速发展,针对地面点云的滤波和DEM生成技术日益成熟。
1) 基于规则和阈值滤波的方法
此类方法通过设置坡度变化、高程差或邻域距离等简明规则,对点云进行分类和剔除非地面点。其计算过程简单、效率较高,适合地形较为平缓、地物分布规律明确的区域[2]。然而,在复杂地形或密集植被覆盖区往往难以准确区分地面与非地面点,容易造成误剔除或遗漏。
2) 基于统计分析的滤波方法
统计方法通常利用点云的高度分布特征、邻域密度及离群点检测等技术,有效去除异常点和显著噪声[3]。相比简单规则方法,统计滤波更具灵活性和鲁棒性,但对复杂城市建筑等结构物的识别仍存在一定局限。
3) 基于机器学习与深度学习的方法
随着计算能力提升,机器学习特别是深度学习技术被广泛应用于点云分类[4]。该类方法可通过训练模型自动识别地面与非地面点,在复杂环境下表现出良好的泛化能力和判别精度。但其依赖大量标注数据且计算资源需求较高,限制了部分场景的推广应用。
4) 物理模拟滤波方法
布料模拟滤波通过模拟柔性布料覆盖点云表面,利用布料“下垂”至地面点的物理特征[5],实现地面点的提取。该方法能自适应复杂地形和密集植被覆盖区域,自动剔除树木、建筑等非地面点,滤波效果自然且鲁棒。尽管参数调试对结果影响较大,且计算过程较为复杂,但其在大规模自动化DEM生成中表现出显著优势。
5) 多方法融合技术
实践中,多数系统结合多种滤波策略,例如先用统计方法剔除噪声点,继而应用布料模拟或机器学习处理细节,通过算法融合提升处理效率和最终DEM精度[6]。这种复合策略兼顾了方法各自优势,更适应复杂多变的点云数据特性。
当前DEM生产技术在处理效率与滤波精度之间寻求平衡[7],简单规则及统计方法虽高效但存在精度瓶颈,机器学习技术精度较高但资源消耗大。布料模拟滤波基于物理机制,能够较好适应多变地形且实现较高的自动化水平,特别适合大规模点云数据的处理。将此类物理模拟方法与Python等开放生态系统结合,形成集成自动化处理流程,已成为高质量DEM生产的重要发展趋势。
本文依据《基础地理信息数字成果1:500 1:1000 1:2000数字高程模型》(《规范》)相关技术要点,系统地总结了13个区块45.3平方公里DEM的生产技术流程与方法。
本文采用倾斜摄影测量获取的三维点云数据,通过自动化处理与人工编辑相结合的方式,确保了DEM成果的精度与可靠性。
2. 项目任务与技术要求
2.1. 项目任务
项目任务为生产45.3平方公里的数字高程模型,覆盖马跑泉镇、甘泉镇、花牛镇、桥南街道及社棠镇等区域。按照《规范》二级精度要求,确保DEM成果满足规范标准。
2.2. 精度指标
DEM精度指标如表1所示。
Table 1. DEM accuracy index
表1. DEM精度指标
比例尺 |
高程中误差(m) |
二级 |
1:2000 |
平地 |
0.5 |
山地 |
1.5 |
3. 技术路线与方法
本文采用的技术路线包括数据检查、区块划分、点云去噪、布料模拟滤波(CSF)、人工精修、质量检查、像控点验证、区块拼接、DEM裁剪及报告撰写等10个关键环节。技术路线如图1所示。
4. DEM生产流程
4.1. 原始数据整理检查
本文将二个工作区分为13个区块,区域面积为50.28平方公里。
利用Python开发点云瓦片空间分布形态生成工具和点云文件处理工具,对点云文件进行处理,读取点云文件中的空间坐标信息,计算点云瓦片的长度和宽度,生成空间位置shp文件,将shp文件与二个工作区范围矢量进行空间比较,确定二个工作区所涉及的点云瓦片文件。
Figure 1. DEM production technology roadmap
图1. DEM制作技术路线图
1) 点云瓦片的空间分布(图2)
Figure 2. Point cloud file boundary generation tool
图2. 点云文件边界生成工具
利用点云文件边界生成工具,对二个工作区内的点云进行处理,生成相应的点云瓦片文件矢量shp范围,判断其空间分布与二个工作区范围的一致性。
2) 点云文件处理
确定项目区点云瓦片文件齐全后,用工作区矢量的空间位置,对点云瓦片文件进行空间选择获得点云瓦片的文件名称和存放文件位置,将区域空间选择的结果表制作成点云文件对照表,如图3。
Figure 3. Selecting a point cloud file from the location of the project area to create a file copy comparison table
图3. 用项目区位置选择点云文件制作文件拷贝对照表
开发点云文件拷贝文件工具,如图4,按DEM制作的二个工作区对应的点云文件拷贝到工作文件夹内。点云瓦片名称放在对照表的第2列,用的是全文件名,有扩展名.las,其余目录等信息是通过工具相应栏目进行选择,与对照表无关。
Figure 4. Copying point cloud files using the batch copy tool for point cloud files
图4. 利用点云文件批量复制工具复制点云文件
3) 检查点云文件
对二个工作区内点云文件空间位置进行展点,检查分区点云瓦片的完整性,如图5。用文件名进行标注,检查文件命名的连续性和空间分布的正确性,无空洞即可。
Figure 5. Checking the continuity of the file space distribution in the point cloud
图5. 检查点云文件空间分布的连续性
点云空间连续性检查正确后,对点云瓦片文件的内容进行检查,主要抽查各个瓦片里的点云的完整性、有无畸变、空洞等,如图6。
Figure 6. Checking the integrity, distortion, and cavity of spatial elements in the cloud tiles
图6. 检查点云瓦片里的空间要素完整性、畸变、空洞等
4.2. 作业区块划分
对二个工作区内的点云文件进行区块划分,本文每个区块的点云瓦片数量在100~150个,对应地面投影面积为1~1.5平方公里。
利用点云瓦片可视化工具对对应瓦片进行选择、复制,如图7。工具提供点云瓦片文件空间可视化、单个瓦片选择、多个瓦片选择、删除对应点云文件、复制对应点云文件、批量处理等功能。
对工作区块划分依据瓦片的空间位置,由上而下、由左至右连续用shift键与鼠标左键选择,用鼠标可右键选择删除与复制。
Figure 7. Tile file space location visualization tool
图7. 瓦片文件空间位置可视化工具
确定工作区块后,依次建立区域文件夹,将对应点云瓦片文件批量拷贝其中,如图8。
Figure 8. Block folder creation and tile file copying
图8. 区块文件夹建立与瓦片文件拷贝
以工作区块为单元,对单个点云瓦片文件进行合并,建立一个点云处理工程,如图9。
Figure 9. Block point cloud files are merged into one project
图9. 区块点云文件合并为一个工程
4.3. 删除离群点
本文采用Clean SOR (统计离群点移除)滤波方法删除离群点[8],主要用于去除点云数据中的噪声点或离群点,从而提高点云质量和后续处理的准确性
1) 邻域统计分析
对于点云中的每一个点,计算它与其邻域内,通常是固定数量的近邻点,如K个最近邻,其他点的距离统计特征,主要是计算该点到邻居点距离的平均值。
2) 计算距离均值和标准差
统计所有点的邻域平均距离,得到整体的均值(Mean)和标准差STD。
3) 判定离群点
本文采用均值加上2倍的标准差设定阈值。如果某个点的邻域平均距离明显大于这个阈值,说明它相对周围点离得比较远,是孤立点或者噪声点,被判定为离群点。否则,该点被认为是合理的正常点。
4) 剔除离群点
依据上述判定结果,将被认为离群的点删除或标记,从而“清理”点云。
据统计,经过SOR滤波后的本文区块,滤波前后区块点云文件相差1~2 GB,SOR滤波后的区块点云如图10。
Figure 10. Block point cloud after SOR filtering
图10. SOR滤波后的区块点云
4.4. 布料模拟滤波
对SOR滤波后的点云区块工程进行布料模拟滤波处理(CSF)。CSF从点云中“剔除”树木、房屋等点,只留下真正的地面点,从而生成数字高程模型(DEM)。
CSF把点云当作一张不规则地形表面。在该点云的上方放置一块“虚拟布料”或者“弹性薄膜”。通过模拟布料的重力和弹性,使布料自然“贴合”点云表面。布料低垂的部分贴近真实地面,高于地面或悬空部分则对应植被、建筑物等障碍物。最后,通过布料位置和点云点之间的距离阈值,判断某个点是否属于地面点。处理流程:
1) 预处理
为了提高模拟效率,对点云数据进行网格化、空间索引处理。
设定布料的初始“高度”位置在点云上方一定距离。
2) 布料模拟
将布料看成一张由质点和弹簧连接构成的网格。
布料受到向下的重力作用和对节点间距离的弹性约束。
通过迭代求解布料质点的位置,模拟布料收敛稳定下垂状态。
3) 地面点判定
对每个点云点,计算其到布料表面的垂直距离。
距离小于阈值的点判为地面点,大于阈值判为非地面点。
4) 后处理
对地面点进行平滑滤波、连接等操作,得到完整的数字地形模型。
本文处理的地形属于高山、山区、丘陵、谷地混合地形,采用陡坡场景,经过单一地形和复合地形参数调试,最终确定了地形类型、布料分辨率、分类系数、刚度系数,相关参数如表2。
Table 2. Reference table for topography, fabric, classification, and stiffness coefficient
表2. 地形、布料、分类、刚度系数设置参考表
地形类型 |
布料分辨率 |
分类系数 |
刚度系数 |
平地 + 宽路 |
0.5~1.0 |
0.3~0.5 |
12 |
陡坡 + 窄路 |
0.3~0.4 |
0.15~0.25 |
2 |
人工平台 |
0.3~0.5 |
0.2~0.3 |
23 |
密集建筑 |
0.5 |
0.3 |
3 |
通过CSF处理,将地形点云提取出来,如图11。在做CSF处理的过程中,为保证作业效率,同时,做了一次严格参数的地形处理,主要为单独高山和陡坡。
Figure 11. CSF-Processed block terrain point cloud
图11. 经过CSF处理后的区块地形点云
4.5. 人工精修
对经过CSF处理后的地形点云通过人工逐区块进行修正,主要对建筑物、植被进行人工删除与增加要素。
1) 建筑物
CSF处理后的点云由于高度阈值与特殊地形会出现房屋屋顶保留在地形点云里的情形,预以删除即可,如图12。
Figure 12. There are roofs that should not be retained in the CSF-treated terrain point cloud
图12. CSF处理后的地形点云中存在不应保留的屋顶
对建筑物屋顶保留在地形点云上的做删除处理,如图13。
Figure 13. Deleting the roof point cloud
图13. 删除屋顶点云
对删除后的建筑投影面与邻近地形无连接要素的,利用建筑投影面构建建筑地基以保证地形完整,如图14。
Figure 14. Filling in the foundation of the building with a plane
图14. 用平面补齐建筑物地基
2) 植被
对地形由植被(树林)构成时,对树木统一降低高度,同时,保留0.3~0.6米保持地形的连续性,如图15。
Figure 15. Reserving 0.3~0.6 m of woods to maintain terrain continuity
图15. 保留0.3~0.6米的树林以保持地形的连续性
对稀疏树林、独立树木,则删除上述点云,利用周边地形要素构建地形点云,如图16。
Figure 16. Deletion point cloud processing of trees
图16. 对树木进行删除点云处理
4.6. 质量检查
对区块地形点云制作完成后采用2种方法对其质量进行检查、修正。
1) 全局检查点云的合理性
对区块点云调整到一定角度,根据局部地形对其进行截面查看,同时,对高于地面一定高度的点云进行选中,一般作删除处理,如图17。
Figure 17. Cross-sectional inspection of local point clouds
图17. 对局部点云作截面检查处理
2) 用三维地形检查地形点云
将区块点云构建三维地形,检查其地理要素的合理性和漏修要素的再修正,如图18。
Figure 18. Examining the terrain point cloud using 3D topography
图18. 利用三维地形检查地形点云
4.7. 区块拼接
本文分为二个工作区,一区位于马跑泉镇和甘泉镇的13平方公里的区域,二区位于花牛镇、桥南街道、马跑泉镇、社棠镇的30平方公里的区域,将对应的18个和24个区块点云进行下采样(抽稀)合并为一个点云文件,对点云建立新的点云集,将点云集采用反距离加权法点间最大距离设置为0.5米生成DEM,如图19(a)。
4.8. DEM裁剪
利用项目区范围分区矢量,分别建立5米外扩缓冲区面,用5米缓冲区面分别对二个工作区的DEM进行裁剪,网格设置为0.5米,无值区为0。经裁剪后的DEM成果如图19(b)。
(a) (b)
Figure 19. (a) DEM splicing diagram of the project area; (b) DEM cropping result diagram of the project area
图19. (a) 项目区DEM拼接图;(b) 项目区DEM裁剪成果图
5. 结束语
本文通过自动化处理与人工编辑相结合的方式,高效完成了45.3平方公里DEM的生产任务。关键技术包括点云滤波、区块化管理及质量控制,利用320个检查点计算出高程点位中误差为0.078米,成果精度符合规范要求,为后续地理信息系统应用提供了可靠的基础数据。