1. 引言
在当前教育体系持续深化改革的背景下,培养学生的实践动手能力与自主创新思维,已成为衡量新时代高素质人才综合素养的关键指标。随着机器人、互联网、大数据等技术的快速发展,各类智能技术与信息物理融合系统的日益成熟,社会逐步迈入了智能化发展的新阶段[1]。新工科人才作为支撑时代发展的关键力量,不仅需要具备深厚的专业素养,还要拥有跨学科整合能力和卓越的综合应用能力。因此,积极探索并构建与之相匹配的、高效可行的实践教学模式,对于提升学生的系统设计能力、工程实现水平和跨界创新意识,具有十分重要的现实意义与长远价值[2]。
2. 传统实践教学背景
传统的智能机器人实践教学往往面临一系列困难[3]。作为人工智能领域的核心课程,教学面临着巨大挑战:需要紧跟智能终端、边缘计算等新兴领域的发展步伐,以满足行业对人才的新需求;还需要解决传统教学中理论与实际脱节、学生创新能力培养不足等问题;机器人硬件设备价格昂贵、维护成本高,且数量有限,难以满足大规模教学的需求[4];真实实验过程中存在操作风险,稍有不慎便可能导致设备损坏甚至安全事故。此外,受时间和场地限制,学生在实验中能够获得的操作机会有限,往往难以形成深入的理解与系统的能力培养。这些问题在一定程度上制约了智能机器人课程的教学效果和人才培养质量。
因此,虚拟仿真平台成为了高校实践课程的首选,为了培养学生的实践动手能力和创新思维,解决现存问题,高校引入了ROS、Gazebo等仿真技术。ROS (Robot Operating System)作为一个灵活的机器人软件平台,为学生提供了一个模块化、开源化且功能强大的开发与实验环境,ROS本质上是一个机器人软件框架,它不仅包含了丰富的工具包和算法库,还支持机器人运动控制、各类传感器识别与融合、导航等核心功能,提供了用于移动机器人自主导航的核心框架move_base。本节开展的自主导航仿真实验也是基于move_base对传感器信息进行处理,最终向机器人输出控制指令,从而实现自主导航[5]。Gazebo提供一个高度真实的仿真环境,使学生能够创造多样化、可拓展的实验场景,进行各种机器人任务实践,比如运动控制,雷达,摄像头,深度相机仿真等,为学生提供沉浸式、交互式的学习体验。Gazebo对PX4无人机的支持也很多,目前很多算法的验证,包括仿真环境的搭建都是在Gazebo里面完成的[6]。同时,通过“虚拟–现实”结合的模式,学生既能在仿真环境中熟悉原理和流程,又能在实际硬件操作中加深理解,从而有效提升综合素质和创新能力。因此,探究虚拟仿真在智能机器人课程中的实践教学方法具有重要的现实意义和推广价值[7]。
为了解决传统机器人实验教学中硬件受限、成本高、机会少等问题[8]。同时,也方便师生进行实践教学,提高课程效率,我们设计并搭建了一个基于ROS基本框架的智能机器人教学平台,该平台整合了ROS、Gazebo等仿真环境以及一些自研的教学模块,在减少学生编程工作的前提下,高效完成小车模型建立、控制小车模型运动、实现小车模型雷达、摄像头、深度相机等传感器的使用等相关实验。该平台解决了教学内容更新慢,实验设备不足等限制的问题,脱离了时间与空间的约束,学生可以反复练习,深刻掌握智能机器人的相关知识,极大程度提高了学生的理论知识和动手实践能力,还可以自由发散思维,培养创新能力,为机器人教育领域提供一个创新的教学解决方案,促进了学生的全面发展。整体框架如图1所示。
Figure 1. Overall framework diagram
图1. 整体框架图
3. 技术平台与实验环境
为了高效开展智能机器人课程的虚拟仿真实践教学,本研究基于ROS与Gazebo搭建了远程可访问的机器人仿真平台[9]。该平台集成了Gazebo环境库、机器人模型参数配置文件、各类传感器仿真模块以及可视化工具Rviz,为学生提供了一个开放、灵活且功能完善的实验环境。通过远程连接教学平台的方式,学生无需依赖昂贵的物理硬件设备,就能够在虚拟环境中完成机器人模型的建立、各类传感器数据的采集与结果呈现与实验任务验证,从而极大地扩展了课程的覆盖面和实践深度[10]。
3.1. ROS与Gazebo的深度结合
ROS作为当前机器人研究和开发领域最广泛使用的软件框架,提供了模块化、分布式的系统架构。其通信机制,如话题通信,服务通信,参数服务器等通信方式能够清晰地反映机器人系统中感知、决策和执行的关系,帮助学生快速建立对机器人工作原理的整体认识。Gazebo作为高保真的物理仿真器,能够在虚拟三维环境中模拟机器人本体和各种传感器,并对动力学、惯性矩阵、碰撞检测等进行真实计算。通过ROS与Gazebo的无缝对接,学生可以在虚拟场景中部署机器人,实时获取传感器数据,并通过控制算法实现机器人运动和任务执行,从而形成完整的“感知–决策–控制”闭环实验流程。
3.2. 远程仿真平台
为了克服实验硬件不足和实验室时间受限的问题,本研究搭建了远程仿真平台,将ROS + Gazebo运行在服务器端,并通过远程桌面或Web客户端为学生提供接入接口。这样,学生只需一台普通电脑,即可通过网络进入仿真实验环境,加载机器人模型,编写并运行实验代码。平台支持并发访问,能够满足班级规模下多名学生同时在线实验的需求。教师可以提前发布实验教学视频,并通过后台监控学生实验进展,及时进行指导与评价,确保了整个教学过程的互动性与有效性。
3.3. 实验环境与资源配置
为构建高度仿真的实验平台,本研究以典型的差速轮式移动机器人为核心对象,并为其集成了多种关键的虚拟传感器模型,以模拟真实机器人的感知能力。集成的传感器包括:
激光雷达(Lidar):用于对环境进行连续扫描,实时输出周围障碍物的距离信息,为同步定位与建图(SLAM)及实时避障等算法提供核心数据支撑。
摄像头(Camera):提供机器人视角的彩色图像流,可作为颜色识别、二维码识别、经典目标检测等视觉任务的输入,为后续复杂的视觉导航实验奠定基础。
深度相机(Depth Camera):能够同步输出彩色图像与像素级深度信息,生成三维点云数据,从而实现更为精确的环境三维感知、物体识别与空间定位。
所有传感器模型均在Gazebo高保真物理仿真环境中运行,并通过ROS框架发布标准格式的数据话题(Topic)。学生可利用rostopic、rqt等ROS原生工具订阅并处理这些话题数据,进而驱动运动控制、视觉识别与导航避障等算法的开发与测试。平台不仅预置了典型的实验室与走廊场景,还支持学生利用Gazebo自由搭建各类复杂、动态的仿真环境(如内设障碍物的迷宫),从而灵活适配不同难度与需求的实验任务,全面锻炼其系统集成与问题解决能力。
3.4. 可视化与调试工具
强大的可视化与调试工具是虚拟仿真平台不可或缺的一部分。本平台将RViz作为核心的可视化工具,学生能够在一个集成界面中,直观地观测到机器人的实时运动轨迹、激光雷达扫描形成的环境轮廓、摄像头捕获的动态画面、以及深度相机产生的点云图像。这种多维度的数据可视化,极大地深化了学生对机器人“所见所思”的理解。
同时,Gazebo环境本身提供的三维可视化窗口,则完整地呈现了机器人模型、传感器探测范围与仿真环境的实时交互全过程,如同一个可操控的“数字孪生”世界。通过这两款工具的协同使用,学生不仅能高效地定位代码中的问题、调整算法参数以优化机器人行为,更能在此交互式调试过程中,深刻理解机器人从感知、决策到控制的完整工作机理。
3.5. 机器人虚拟仿真教学平台对比分析
为了更全面地明确本平台在教学应用中的独特价值,本研究选取了当前机器人教育领域主流的仿真平台进行对比分析,包括基于开源生态的ROS/Gazebo组合、通用商业仿真软件CoppeliaSim以及科学计算环Simulink。表1从教学应用的关键维度对各教学平台进行了系统对比。
通过对比可知,本研究构建的平台在完全开源、远程接入便利性、与ROS的原生深度融合以及“预习–教学–实践”一体化教学模式整合方面具有独特优势。它有效弥补了现有平台在普惠性、可及性和教学针对性方面的不足,为大规模、高效率的智能机器人实践教学提供了专门化的解决方案。
3.6. 平台总结
该虚拟仿真教学平台深度融合了ROS的模块化通信架构与Gazebo的高保真物理仿真能力,共同构建了一个稳定、开放且易于扩展的智能机器人实验环境。其远程接入特性从根本上突破了传统实验在时间与空间上的限制,确保了教学资源的广泛普适性与可及性;而丰富的多传感器配置与支持自由设计的复杂场景,则保证了实验内容兼具广度、深度与挑战性。这一技术平台的建成,为后续系统化的教学案例设计、以及以能力培养为核心的教学方法改革,奠定了坚实而灵活的基础。
Table 1. Comparison of robot virtual simulation teaching platforms
表1. 机器人虚拟仿真教学平台对比
对比维度 |
ROS/Gazebo |
CoppeliaSim |
Simulink |
本平台:远程ROS/Gazebo |
远程接入便利性 |
配置复杂,依赖本地安装 |
支持远程API,配置繁琐 |
需授权,云访问有限 |
Web/远程桌面一键接入,无需本地配置 |
仿真真实性 |
高,物理引擎成熟 |
高,传感器仿真精确 |
中等,侧重系统建模 |
继承ROS/Gazebo的高保真,适配教学场景 |
协作共享 |
依赖技术栈,协作门槛高 |
有限支持 |
有限支持 |
内置项目共享与并发实验支持 |
教学功能模块 |
通用仿真,无专用模块 |
需自行开发教学模块 |
控制算法工具箱 |
集成预习,课程回顾、
增强模块 |
扩展性 |
灵活,但依赖技术背景 |
脚本扩展友好 |
工具箱扩展 |
模块化设计,支持教学场景扩展 |
4. 教学实践环节
在总体实践安排上,我们采用了“提前预习–老师教学–学生实践”三步走策略,在课前,老师通过实践平台,发布ROS功能包相关知识,让学生提前了解预习,例如统一的机器人描述格式URDF,它可以以一种XML的方式描述机器人的部分结构,最后通过ROS内置的解释器,转换为在仿真环境中可视化的机器人模型。通过它以及它的升级和拓展Xacro文件,我们可以对机器人实现建模,同时,我们采用了模块化的思想,将机器人复杂的结构进行拆分,细化为一个个组件,方便学生理解以及用URDF编写小车模型,并利用Gazebo仿真软件一步步观察组件模型是否建立正确,提高实践效率。
4.1. 小车运动控制以及里程计显示实验
在本实验中,学生需在Gazebo仿真环境中驱动差速轮式机器人完成指定运动,并借助可视化工具Rviz实时观察与分析机器人的运动轨迹与状态变化。
实验开始前,学生需通过课前预习掌握ROS的核心通信机制,重点理解节点与话题的工作方式。具体到本任务,学生将认识到/cmd_vel是ROS中用于控制移动机器人线速度和角速度的标准几何消息接口。实验时,他们通过键盘teleop工具将速度指令发布至/cmd_vel话题,该指令经由ROS通信网络传递至Gazebo中的机器人模型,从而实现对仿真小车运动的精确控制。
本实验采用的机器人模型为典型的差速驱动结构。其运动学特性决定了机器人无法直接进行横向移动,而是需要通过精确调节左右两个驱动轮的转速差来实现前进、后退、转向乃至自转等复杂运动轨迹。这要求学生不仅会发布控制命令,更要理解命令如何转化为两个驱动轮的实际转速,从而加深对移动机器人运动学模型的理解。
实验成功后,学生可在Rviz可视化界面中清晰观察到两个关键反馈:一是机器人模型本身会响应键盘指令在仿真环境中实时运动;二是Rviz会同步绘制并保留一条清晰的运动轨迹。这条轨迹直观地记录了机器人走过的路径,是学生分析控制效果、评估算法性能的重要依据。机器人运动控制与对应的轨迹显示效果,其完整工作流程如图2所示。
Figure 2. Robot motion control and trajectory display
图2. 机器人运动控制以及运动轨迹显示
4.2. 小车激光雷达仿真实验
在本实验中,学生的核心任务是将激光雷达传感器与预先构建的机器人模型进行集成与配置,并实现探测过程的可视化,从而深入理解激光雷达的环境感知原理。
实验开始时,学生首先需要在机器人模型上正确配置激光雷达传感器插件。成功加载后,在Gazebo仿真环境中,学生可以直观地观察到一束束红色射线(即探测激光束)从雷达中心发出,并与环境中的障碍物发生交互。这种实时的光束渲染,将抽象的探测过程转化为具象的视觉反馈,极大地帮助学生理解激光雷达通过发射与接收激光束来测算障碍物距离与轮廓的基本工作原理。
在通信层面,本实验的关键在于理解ROS的话题机制。激光雷达在仿真中持续扫描环境,并将每一次扫描的结果数据(如测距点集合)发布到名为/scan的标准传感器消息话题上。随后,Rviz工具通过订阅这一/scan话题,便能实时接收并解析这些环境数据。
最终,学生可以在Rviz的可视化界面中,观察到激光雷达所“看到”的世界:环境信息被转化为由大量离散点构成的二维或三维轮廓图。这一从Gazebo中的“光束探测”到Rviz中的“轮廓再现”的完整数据流,清晰地揭示了从物理模拟到数据可视化的全过程。Gazebo中机器人发出的可视化雷达光束效果如图3所示,而在Rviz中显示的最终环境轮廓信息则如图4所示。
4.3. 小车摄像头仿真实验
本次实验旨在引导学生将摄像头传感器与机器人模型进行深度集成,并实现动态环境下的实时视觉感知。学生需要将摄像头传感器正确配置到机器人的相应组件上,并启动机器人的运动控制仿真,使机器人能够在Gazebo环境中自由移动,从而实现对周围环境的动态观测与图像捕获。
Figure 3. Visual radar beam effect diagram
图3. 可视化雷达光束效果图
Figure 4. Final environmental contour information map
图4. 最终环境轮廓信息图
在摄像头仿真实验中,整个系统主要依赖/camera/image_raw与/cmd_vel两个核心ROS话题进行通信协作。学生通过向/cmd_vel话题发布速度指令,驱动机器人在仿真场景中运动;与此同时,机器人搭载的虚拟摄像头会持续采集周围的图像信息,并将原始的图像数据流通过/camera/image_raw话题实时发布。
学生可以在Rviz中订阅并可视化这一图像话题,从而以第一人称视角直观地观察机器人“眼中”的动态环境画面。这一过程不仅模拟了真实机器人系统中视觉数据的完整流动链条,也为后续开展更复杂的图像处理与视觉导航任务(如目标识别、颜色跟踪等)奠定了重要的实践基础。在Rviz中显示的摄像头实时拍摄画面如图5所示。
Figure 5. Real time image of camera
图5. 摄像头实时画面图
4.4. 小车深度相机仿真实验
在深度相机的仿真实验中,学生将接触到区别于普通摄像头的先进视觉传感器——深度相机。与仅能捕获彩色图像的普通摄像头不同,深度相机能够同步获取环境的彩色信息与几何信息。它不仅输出一张常规的彩色图像,更关键的是能生成一张对应的“深度图”。在这张深度图中,每个像素的数值不再代表颜色,而是直接表征该像素点对应的物体表面与相机光学中心之间的物理距离。在典型的可视化渲染中,距离相机越近的物体在深度图中显示为越亮的像素(偏白色),而距离越远的物体则显示为越暗的像素(偏黑色),从而以灰度图像的形式直观地呈现了整个场景的三维空间结构。
为实现动态环境下的深度感知仿真,本实验同样需要集成机器人的运动控制功能。学生通过向/cmd_vel话题发布速度指令,控制机器人在Gazebo环境中移动。与此同时,深度相机在仿真过程中持续采集数据,并将其核心产物——深度图像数据通过专用的/camera/depth/image_raw话题进行发布。学生可以在Rviz可视化工具中,同步订阅并并排显示彩色图像与深度图像,实时对比观察机器人“眼中”的彩色世界与其对应的三维距离信息。
该实验不仅使学生掌握了深度相机的仿真配置与数据可视化方法,更重要的是,通过直观对比彩色图与深度图,他们能够深刻理解计算机视觉中“2D像素”与“3D空间”的对应关系。这一实践为后续开展更为复杂的三维视觉任务,如点云生成与处理、三维物体识别与SLAM (同步定位与地图构建)等,奠定了坚实的理论与实验基础。
4.5. 教学组织与实施
为确保虚拟仿真平台的有效利用,我们设计了与之配套的教学实施流程:
课前预习:教师通过在线教学平台(如课程中心或Moodle)发布ROS功能包、URDF/Xacro学习资料和实验指导视频。学生需在个人电脑上完成平台环境配置,并初步了解实验原理。
课堂讲授与实践:课堂上,教师不再进行冗长的原理讲解,而是通过屏幕共享实时演示关键步骤,重点讲解ROS话题通信、传感器数据流等核心概念。随后,学生立即在仿真平台上动手实践,将理论即刻应用于操作。
远程指导与监控:教师可通过平台后台实时查看学生的实验进度和日志,对遇到困难的学生进行一对一远程指导,实现个性化教学。
过程性评价:平台支持实验报告在线提交。教师不仅评估最终结果,还可结合平台记录的操作过程数据,对学生的调试能力、问题解决思路进行综合评价,形成更全面的考核机制。
5. 教学效果评估
为了全面、客观地评估虚拟仿真平台在本课程中的教学成效,本研究构建了一套多维度、层次化的定量化评估体系。该体系旨在通过前后测对比、过程性评价与学习体验反馈的结合,系统反映学生在知识理解、技能掌握、实践能力与学习态度等方面的变化,从而为课程得到优化提供确证依据。
在理论与实践层面,本研究在课程开始前与课程进行中分别实施知识问卷测试和实践能力测验。课前测试内容主要聚焦学生对机器人运动学、动力学、传感器融合、控制方法等核心概念的基础掌握;课中测试则更强调学生对相应理论知识和实践动手能力的综合理解,便于学生对所学的融会贯通。课前知识问答与课中实践能力的测试,可以有效量化虚拟仿真平台对学生知识水平掌握的促进程度。此外,研究还设置了能力等级划分,例如“基础理解”、“独立完成”、“综合拓展应用”等,以进一步从多角度评估学习效果。
在课后,我们也通过收集学生的课程作业,以及每一个动手实验的实验报告,来进行打分分析,通过对不同批次作业的纵向比较,可以反映学生在虚拟仿真平台使用能力、机器人系统分析能力以及工程逻辑思维方面的渐进式提升,此外,我们通过问卷调查的方式对学生关于这个教学平台的使用效果近些年统计,统计结果如图6所示。绝大部分学生认为此教学平台的使用有助于课程的学习。
Figure 6. Statistics of teaching effectiveness questionnaire survey results
图6. 教学效果问卷调查结果统计
6. 总结与展望
针对智能机器人实验教学存在的硬件成本高、安全风险大等痛点,构建了基于ROS与Gazebo的虚拟仿真教学平台。该平台通过模块化设计和远程接入功能,实现了机器人建模、传感器仿真和运动控制等核心实验的线上开展,形成了完整的“感知–决策–控制”实践闭环。
平台采用循序渐进的实验体系,从基础运动控制到复杂的视觉感知,配合“预习–讲授–实践”教学模式,有效提升了学生的系统设计能力和创新思维。通过可视化工具,学生能够直观理解算法与机器人行为的内在联系,在安全的“创新沙盒”中完成从理论到实践的转化。
本研究证实,该平台不仅是解决教学资源短缺的有效途径,更是推动课程从“以设备为中心”向“以能力为本位”转型的关键。未来将进一步拓展机器人模型种类,集成高级算法,并探索“虚实结合”的教学新模式,为智能机器人教育的发展提供持续动力。
基金项目
湖南工业大学新工科课程建设项目(编号:011861)。