1. 引言
库坝在防洪、灌溉、发电等领域发挥着不可替代的作用,其水下部分长期处于复杂的水文环境中,易受到水流冲刷、水质腐蚀、生物附着等因素影响,产生裂缝、蚀坑、渗漏等各类缺陷。这些缺陷若不能及时被发现和处理,可能会不断扩大,最终威胁库坝的整体安全[1]。传统的库坝水下缺陷探查主要依赖潜水员人工操作,不仅效率低下,而且在深水区、水流湍急区域等复杂环境下,潜水员的安全难以得到保障。随着机器人技术和成像技术的发展,水下机器人逐渐成为库坝水下探查的重要工具。有缆机器人(ROV)凭借脐带缆提供的持续动力和稳定通信,能够在水下长时间作业,具备较高的作业稳定性和可靠性,在库坝工程水下探查领域具有显著优势[2]-[5]。
然而,当前水下成像探查有缆机器人系统仍存在技术瓶颈:成像技术在高浊度水体(如库坝淤泥区)中性能骤降,图像信噪比降低60%以上,难以识别<5 mm的微小裂缝;动力推进系统能耗偏高,在10 km以上隧洞等长距离探查场景中续航不足,作业效率降低30%以上;导航定位在坝体廊道等无GPS信号的封闭环境中,累计漂移达5~10米,导致缺陷位置标注误差过大。同时,现有机器人多针对海洋环境设计,对库坝闸门槽、接缝等特殊结构的探查适配度低,覆盖率仅60%~70%,且缺乏混凝土缺陷智能识别模块,依赖人工判读导致漏检率超15% [5]-[7]。
此外,传感器布局与水动力性能匹配不足,易引发图像抖动与姿态失稳,进一步降低成像质量。系统集成度低,脐带缆易缠绕,抗流能力弱,限制了在复杂水流条件下的作业能力。同时,缺乏统一的数据格式与通信协议,导致多源信息融合困难,难以实现高效协同作业,制约了水下探查的自动化与智能化水平提升[5] [8] [9]。
更关键的是,现有库坝水下成像探查有缆机器人多为定制化设计,系统间兼容性与可扩展性差,且缺乏统一设计标准与模式,不仅推高研发成本、延长周期,更难以适配库坝维护中对坝体、拦污栅、闸门等多类结构的多样化探查需求[4] [8]。这种碎片化的设计模式导致技术成果难以复用,每次任务均需重新设计或大幅改装,限制了装备的系列化与产业化进程。同时,硬件接口、通信协议和软件架构的不统一,使得功能模块升级困难,跨平台数据共享与协同分析能力受限,进一步削弱了系统的长期可维护性与技术迭代效率[8] [10]。
本文基于库坝系统水下探查的实际需求,结合有缆机器人技术特点,提出一套完整的系统设计模式,涵盖总体架构、硬件模块、算法体系和应用层功能等方面,旨在为相关机器人系统的研发提供规范化设计参考方案。
2. 系统总体架构设计
库坝系统水下成像探查有缆机器人系统(CRS-UII)采用“物理层–算法层–应用层”的三层架构(如图1所示)设计。CRS-UII以可靠性为核心,通过模块化架构实现各功能模块的灵活适配与协同工作,同时确保系统能适应不同水深、水质、光照等复杂水下环境,兼顾硬件设备与软件算法的高效配合及长期稳定运行。
Figure 1. Overall architecture of CRS-UII
图1. CRS-UII总体架构
物理层:由有缆机器人本体、脐带缆和岸基设备组成。有缆机器人本体是执行水下探查任务的核心,集成了成像设备、推进装置、感知传感器等;脐带缆负责为机器人提供电力供应、数据传输和机械牵引;岸基设备用于操作人员对机器人进行远程控制和数据处理。此外,该层还特别强调了标准化接口的设计,支持传感器、推进器及其他外设的即插即用,以提升系统的可扩展性和任务适应能力。
算法层:包含成像处理算法、运动控制算法、缺陷识别算法等。成像处理算法用于优化水下成像质量,特别是在高浊度水体中提升图像信噪比和细节分辨力;运动控制算法实现机器人的精准运动和姿态调整,确保在复杂水流条件下的稳定性;缺陷识别算法对成像数据进行分析,识别出库坝水下缺陷信息。通过统一的数据格式与通信协议(如基于ROS的中间件架构),实现多源传感数据的高效融合和模型的快速部署与更新,进一步增强了系统的智能化水平。
应用层:提供人机交互界面、任务规划、数据管理等功能,实现对库坝水下探查任务的全过程管理。该层支持实时状态监控与远程操作,可根据不同探查任务配置相应的作业参数。通过统一的数据存储格式与接口规范,实现探查数据的结构化管理与基本的跨平台访问。
3. 物理层硬件模块设计
3.1. 有缆机器人本体
有缆机器人本体采用模块化设计,由成像模块、推进模块、感知模块、控制模块及脐带缆接口模块等组成,各模块通过标准化接口实现快速拆装与功能扩展。
(1) 成像模块
成像模块获取库坝水下图像信息,采用多设备协同工作的方式,具体配置如下。
主相机:设计选型Basler acA2500-14gm工业相机,分辨率2592 × 1944 (500万像素),帧率≥30 fps,搭载Computar M1224-MPW2自动对焦镜头(12 mm焦距,F2.4光圈),支持0.5~10 m距离范围内拍摄库坝水下结构的细节。相机设计内置全局快门,动态范围达70 dB,在5~50 m水深、光照强度≤10 lux的低光环境下,仍能保持图像信噪比≥40 dB。
辅助照明设备:采用4组Cree XHP70.2 LED灯组,单组功率30 W,色温6500 K,通过德州仪器TPS61165驱动芯片实现0~100% PWM调光。灯组呈45˚对称分布于相机两侧,搭配磨砂玻璃漫射罩,照明均匀度≥85%,有效照射半径≥5 m,可减少水体散射导致的光斑干扰。
图像采集卡:用于将相机拍摄的图像数据实时传输到机器人的控制系统,支持高速数据传输,确保图像的连续性和完整性。选用Matrox Solios eA/4 PCIe图像采集卡设计,支持4路Camera Link接口,数据传输速率设计为850 Mbps,具备硬件触发同步功能,可确保图像帧同步精度≤1 μs,避免高速运动时的图像拖影。
(2) 推进模块
推进模块为机器人提供水下动力,使其能够按照预定轨迹移动,实现水下探查。推进模块采用多推进器协同控制的方式。
推进器选型。配置6台BlueRobotics T200无刷推进器,包括4台水平推进器和2台垂直推进器。负责机器人的前后、左右移动转向、上下运动和姿态调整。推进器采用无刷电机,单个推进器的最大推力不低于50N。
推进控制系统。主控制器根据运动指令和传感器反馈信息,计算各推进器的输出功率,实现机器人的精准运动。主控制器通过CAN总线与电调通信,采样频率1 kHz,基于扩展卡尔曼滤波(EKF)算法融合惯性测量单元(IMU)数据,控制周期5ms,位置控制精度±5 cm,姿态控制精度±0.5˚。
复杂水流应对措施。为提升在库坝泄流区、闸门附近等强流扰动环境下(流速≤1.5 m/s的典型库坝水流条件)的作业稳定性,系统采取以下技术路线:1) 流体动力学优化设计:机器人本体采用流线型外壳,减少水流阻力与涡激振动;推进器布局经CFD仿真优化,避免相互干扰,提升推进效率。2) 前馈–反馈复合控制:在PID反馈控制基础上引入水流扰动前馈补偿,利用DVL实时感知相对水流速度,动态调整推进器输出,抑制外部扰动引起的漂移。3) 自适应推力分配:根据姿态误差与外部扰动强度,动态调整水平与垂直推进器的推力配比,增强抗倾覆能力。4) 低速高响应模式:在复杂结构附近作业时,启用低速巡航模式,降低最大速度但提高控制灵敏度,确保在强剪切流中仍能稳定悬停与精细移动[4] [8]。
(3) 感知模块
感知模块用于获取机器人的自身状态和周围环境信息,主要包括以下传感器。
姿态传感器:选用VectorNav VN-100惯性测量单元IMU,实时测量机器人的横滚角、俯仰角和航向角,测量精度不低于±0.5˚,为机器人的姿态控制提供数据支持。设计参数:IMU集成三轴加速度计(量程±16 g,精度±0.01 g)、陀螺仪(量程±400˚/s,零偏稳定性≤1˚/h)和磁力计(量程±2.5高斯,分辨率0.1 mG),数据输出频率100 Hz,通过RS485接口传输,姿态解算更新率200 Hz。
深度传感器:采用MS5837-30BA压力式深度计,测量范围0~100 m,测量精度±0.1 m,用于实时监测机器人的水下深度位置。在无GPS信号的封闭环境中,通过融合IMU与视觉里程计数据,采用定位更新模型:
,其中,
为当前位置,
为上一时刻位置,
为瞬时速度,
为采样间隔,
为航向角;将累计定位漂移控制在1 m以内,确保缺陷位置标注精度。
避障传感器:在机器人四周安装8路HC-SR04超声波传感器,探测距离0.3~4 m,测距精度±3 mm,采样频率5 Hz,能够及时发现机器人周围的障碍物,避免发生碰撞事故,保障机器人的安全作业。
脐带缆拉力传感器:安装在机器人与脐带缆的连接部位,用于测量脐带缆对机器人的拉力,为机器人的运动控制提供参考,避免因拉力过大影响机器人的运动稳定性。设计选择Zemic H3F拉力传感器,量程0~500 N,精度±0.1% FS,通过AD7705模数转换器采样,实时监测缆绳拉力变化。
3.2. 脐带缆
连接机器人本体和岸基设备脐带缆绳具有供电、通信和机械牵引等多重功能。脐带缆采用复合结构,内部包含动力线、数据线和加强芯。动力线为机器人提供稳定的电力供应,采用多芯铜缆,额定电压220V;数据线采用光纤,用于传输高清图像数据和控制指令,传输速率不低于1 Gbps;加强芯采用高强度凯夫拉材料,提高脐带缆的抗拉强度,使其能够承受机器人在水下作业时的拉力。脐带缆采用特殊的密封结构和材料,确保在水深100 m以内不会发生渗水现象,保护内部的动力线和数据线。
3.3. 岸基设备
岸基设备是操作人员与水下机器人进行交互的平台,采用工业级集成设计,其逻辑设计方框图如图2示意。
Figure 2. Logical design block diagram of shore-based equipment
图2. 岸基设备逻辑设计方框图
图2中,数据处理单元包括,图像预处理模块(去噪/增强)、传感器数据融合模块(姿态/深度/定位)、缺陷识别结果解析模块。控制指令单元包括,机器人运动控制模块(速度/姿态调节)、任务规划调度模块(路径重规划/模式切换)、应急处理模块(故障报警/紧急返航)。通信模块包括,脐带缆通信接口(数据/动力复合传输)、库坝监测平台对接接口。人机交互单元包括,高清显示终端(实时图像/状态参数)、操作控制面板(摇杆/按键输入)、声光报警装置。电源管理单元包括,主电源模块(AC 220V转DC 24V)、备用电源模块(续航≥4 h)。存储模块包括,本地存储(SSD,容量≥1 TB)、数据备份模块。
岸基设备的核心配置如下:
控制计算机:选用研华IPC-610L工业主机,搭载Intel Core i7-10700处理器(8核16线程)、32GB DDR4内存、512GB SSD,运行Windows 10 IoT系统,安装基于Qt 5.15开发的控制软件,支持实时数据采集(包括接收机器人传输的图像数据和状态信息)与向机器人下发控制指令(延迟≤10 ms)。
显示设备:配备高分辨率显示器,实时显示机器人拍摄的水下图像、机器人的姿态、深度、位置等状态信息。
操控设备:包括操纵杆、按键面板等,操作人员通过操控设备向机器人发送运动、成像等控制指令,实现对机器人的远程控制。
数据存储设备:采用大容量硬盘,用于存储机器人传回的图像数据、状态信息等。硬盘设计选型8TB Western Digital Ultrastar HDD (7200 rpm,256 MB缓存),采用RAID 1冗余阵列,数据写入速率≥200 MB/s,支持自动备份,存储容量可满足连续8小时4K视频录制需求。
4. 算法层设计
4.1. 成像处理算法
库坝水下环境因水体散射、吸收等作用,易导致图像出现模糊、色彩失真、对比度低等问题,需通过多阶段处理实现质量优化,为后续缺陷识别提供可靠输入[11]-[13]。
图像去噪:采用基于小波变换的去噪算法,该算法能够有效去除图像中的高斯噪声和脉冲噪声,同时保留图像的边缘和细节信息。通过对图像进行多尺度小波分解,对高频系数进行阈值处理,然后进行小波逆变换,得到去噪后的图像[12] [14]。
色彩校正:针对水下图像的色彩失真问题,设计采用基于灰度世界假设的色彩校正算法。该算法假设在一幅图像中,所有像素的平均灰度值为一个固定值,通过调整红、绿、蓝三个通道的增益,使图像的色彩恢复正常。
图像增强环节,将引入生物侧抑制机制设计滤波算法,以突破常规方法的局限性。该方法模拟生物视觉系统中神经元间的侧抑制效应,通过构建中心–周边拮抗滤波模型实现增强:
其中,
为原始图像像素值,N为中心像素
的邻域范围,
为基于距离的抑制权重(距离越近权重越大),k为抑制系数(可根据图像噪声水平动态调整,取值范围0.1~0.5)。通过该滤波处理,既能增强图像中缺陷与背景的灰度差异,又能抑制水体散射导致的高频噪声,尤其对微小裂缝等低对比度目标的边缘增强效果显著,可提升后续缺陷识别的灵敏度。
4.2. 运动控制算法
有缆机器人在水下运动时,受到水流扰动、脐带缆拉力等因素的影响,难以实现精准的运动控制。为提高机器人的运动精度,采用基于模型预测控制(MPC)框架构建含脐带缆拉力耦合的动力学模型,采用六自由度模型描述机器人运动,通过位姿与速度的映射关系体现运动特性,同时引入由拉力系数与实测拉力确定的脐带缆拉力干扰项,以反映缆绳对机器人运动的影响。目标函数设计为:
式中,
为轨迹误差,u为推进器控制量,
,
,预测时域
。
在约束处理上,推进器输出限制在0到50 N之间,机器人纵向速度不超过1 m/s,横向和垂向速度均不超过0.5 m/s,通过二次规划求解,控制周期50 ms,轨迹跟踪误差≤±8 cm。
为提升在复杂水流环境下的鲁棒性,系统引入自适应水流补偿机制,基于DVL与IMU融合的相对流速估计,在MPC模型中动态修正外部扰动力项,增强对时变水流的响应能力。同时,集成基于模糊逻辑的速度调节策略,根据实时流速自动调整巡航速度,避免失稳;当检测到突发强流或湍流扰动时,触发局部路径重规划与紧急避障机制,确保作业安全与连续性[4]。
4.3. 缺陷识别算法
缺陷识别作为库坝水下成像探查的核心任务,计划采用基于深度学习的算法方案,以实现对裂缝、蚀坑等常见缺陷的自动识别和定位[15]-[17]。缺陷识别算法流程设计参见表1。
Table 1. Design of defect recognition algorithm flow
表1. 缺陷识别算法流程设计
步骤 |
流程环节 |
操作/计算 |
Step 1 |
数据集 准备 |
收集尽可能多的库坝水下缺陷图像,使用LabelImg工具标注3类缺陷的边界框,再通过旋转、缩放等增强手段扩充至万张以上,最后按8:2比例划分训练集与验证集 |
Step 2 |
网络模型 构建 |
以YOLOv8为基础模型,在原第3个检测层下方新增小目标检测层,在特征融合层嵌入通道压缩率为16的坐标注意力模块,完成改进模型搭建 |
Step 3 |
训练参数 配置 |
采用ImageNet预训练参数初始化,冻结骨干网络前5层权重,设置SGD优化器(初始学习率0.01,余弦退火调整),定义CIoU损失函数(α动态范围0.1~0.9),迭代60轮时引入梯度裁剪(阈值5.0) |
Step 4 |
模型训练 执行 |
加载划分好的数据集,以batch size = 32、混合精度(FP16)进行训练,每轮控制耗时在8分钟内,每5轮用验证集评估,依据第50~60轮连续10轮的mAP和F1-score判定收敛并保存模型 |
Step 5 |
缺陷识别 推理 |
输入图像经预处理,模型前向传播(单张耗时≤40 ms)生成预测框,通过非极大值抑制(阈值0.45)过滤,对重叠度>70%的框加权融合,输出相对坐标形式的边界框、类别及置信度 |
算法以YOLOv8模型为基础构建多类别缺陷检测框架[16] [18] [19]。数据集构建环节,拟收集足量库坝水下缺陷图像,对图像中的缺陷进行标注,建立包含裂缝、蚀坑、渗漏等3类缺陷的数据集。同时,通过数据增强技术,如随机旋转(−30˚至30˚)、缩放(0.8~1.2倍)、裁剪、加噪等仿射变换,扩充数据集规模,提升模型的泛化能力。
网络模型选择上,确定选用YOLOv8模型作为基础模型,该模型具备检测速度快、精度高的特性,适用于实时缺陷检测任务。针对库坝水下缺陷的特点,将对模型进行改进,在特征融合层加入坐标注意力模块,通过全局平均池化与感知机处理实现通道与空间注意力加权,同时新增3 × 3卷积的小目标检测层,以提高对0.5~2 mm微小裂缝等小缺陷的检测能力。模型训练将采用迁移学习方法,利用预训练模型的参数初始化网络,再在构建的缺陷识别数据集上进行微调训练。训练过程中计划采用CIoU损失函数:
其中ρ为边界框中心距,c为最小外接矩形对角线,v为长宽比一致性参数。优化器选用随机梯度下降(SGD),设置初始学习率0.01、动量0.9等参数,通过100轮迭代训练使模型收敛至最优状态。
缺陷定位与分类环节,将处理后的水下图像输入训练好的模型,模型需输出缺陷的位置信息(边界框)、类别信息(如裂缝、蚀坑等)以及缺陷的置信度,以便操作人员对缺陷进行进一步的分析和判断。预期模型在测试集上mAP@0.5应达到92%以上,推理速度不低于25 fps,以满足工程实时探查要求。
5. 应用层功能设计
5.1. 人机交互界面
人机交互界面采用模块化设计,实现高效信息交互与操控。
主体分四个功能区:中心实时成像区以双屏联动展示,主窗口显示高清处理图像(≥1920 × 1080),支持缩放、标记,辅助窗口同步对比原始与增强图像;左侧状态监测区通过仪表盘与列表,实时刷新机器人姿态、深度、缆绳拉力等参数,超限触发颜色预警;右侧控制指令区采用摇杆 + 触控按钮,负责三维运动控制及成像模式切换、照明调节等功能,指令延迟≤50 ms;底部任务规划区支持预设轨迹导入与手动绘制,实时叠加显示规划轨迹与当前位置,提供任务进度与电量预估。
界面嵌入智能辅助模块,识别疑似缺陷时自动标记并提示,支持历史图像比对与一键生成缺陷评估报告。采用深色主题,关键元素高对比度配色,保障复杂工况下的可读性。
5.2. 任务规划
任务规划模块采用动态优化策略,结合库坝结构与环境信息提升探查效率[20] [21]。
路径生成采用“全局规划 + 局部调整”双层策略:全局基于库坝CAD模型划分5 m × 5 m网格区,通过改进A*算法(一种高效寻优的路径搜索算法)生成初始路径。该算法通过评估节点从起点到当前的实际代价和到目标的估计代价快速找到最优路径,改进后适配库坝探查的三维环境和成像需求,生成的路径间距按成像视场角(横向120˚、纵向90˚)设为3 m,且满足:
式中h为镜头距坝面距离,θ为视场角,k为重叠系数(k取1.2)。对坝体接缝等关键结构可再设重点探查点,点间距0.5 m。
局部调整融合多传感器数据:避障传感器检测到障碍物时,5 s内通过RRT*算法(基于随机采样的路径规划算法)生成绕障路径,安全距离≥1 m;姿态倾斜超8˚时调整高度,维持镜头与坝面垂直距离3 m;
连续3帧图像清晰度不满足
(G为灰度梯度均值,N为像素数),则降速至0.2 m/s并增强照明。
在现有路径规划基础上,进一步引入能耗与水动力因素的联合优化。通过水文数据预判库区流场分布,在路径生成时将水流方向与速度作为代价函数权重,优先规划顺流或弱流区域路径,减少逆流航行能耗。同时,建立机器人运动能耗模型,结合推进效率曲线与航行距离,在改进A*算法中引入能耗代价项,实现“时间–能耗”多目标权衡。对于长距离巡检任务,优化路径平滑度,减少频繁转向带来的额外功耗。局部调整阶段结合实时DVL测速与IMU数据,动态调节航速以维持稳定相对流速,降低湍流扰动下的控制能耗,从而提升整体作业续航能力[21] [22]。
任务调度支持多模式:自动模式按优先级(裂缝 > 蚀坑 > 巡检)执行;手动模式可插入任务并重新排序;应急模式在缆绳拉力>300 N或系统异常时启动返航。集成任务仿真功能,预演路径并统计作业时长(误差≤5%)与续航。
5.3. 数据管理
数据管理模块采用分布式存储架构,分类存储水下图像、设备状态、操作日志等数据,支持按时间、位置、缺陷类型多维度检索,响应时间≤1 s。
采用RAID 5冗余机制保障数据完整性,关键图像自动生成3份备份(本地服务器 + 云端 + 移动硬盘)。引入数据压缩算法,对原始图像压缩比1:5,节省存储空间同时保留细节。设置分级权限管理,操作人员仅可查看与操作相关数据,管理员拥有全量访问与删改权限。系统自动按日生成数据完整性校验报告,异常数据触发告警并记录修复日志,确保数据可追溯。
6. 结束语
本文提出的库坝系统水下成像探查有缆机器人系统(CRS-UII)设计模式,作为库坝安全监测的关键前端设备,可满足水下结构高效精准的探查需求,其特点如下:
(1) 硬件层采用模块化集成设计,机器人本体融合生物侧抑制滤波增强的成像模块、六自由度矢量控制(推进效率优化至0.82)的推进模块及多维度感知模块,配合复合铠装脐带缆,实现高清成像、低耗灵活运动与稳定作业的协同。
(2) 算法层构建“成像优化–运动控制–缺陷识别”全链路处理体系,通过联合去噪增强算法提升图像质量,改进模型预测控制MPC与定位更新模型(
),保障轨迹与定位精度,改进YOLOv8模型实现微小缺陷高效识别,支撑探查精准性。
(3) 控制系统具备智能交互、任务规划与网络协同能力,通过算法协同实现路径优化与动态调整,支持多模式调度,可接入库坝安全监测平台构建全域网络,为运维决策提供精准数据支撑。
基金项目
本文得到国家自然科学基金(62463021)、江西省自然科学基金(20242BAB25049)的资助。