以临床推理为导向的数字化赋能病理学教改评价
Evaluation of Pathology Education Reform Empowered by Digitalization with a Clinical Reasoning Orientation
摘要: 目的:评价新医科背景下面向临床推理能力培养的病理学数字化赋能教学改革效果。方法:采用基于届别的历史对照准实验设计。以2022级临床医学本科生为对照组(传统讲授,N = 352),以2023级为改革组(数字化赋能教学,N = 459)。两组同一课程与考核体系下参加结业考试(满分100分),授课教师、学时与考核流程一致,命题教师为同一人;比较卷面成绩、基础题与临床推理题得分率及试卷认知层次分布。对改革组开展Likert 5级满意度问卷(发放459份,回收率约79%,n ≈ 363)。结果:改革组平均分62.48分,高于对照组60.22分(均值差2.26,95% CI 0.28~4.24,p ≈ 0.026)。基础题与临床推理题得分率分别由47.65%升至66.80%、由54.35%升至70.50%。认知层次中“解释”占比由29.79%升至47.83%,回忆略降(40.43%→39.13%),问题解决下降(29.79%→13.04%)。非常满意比例:AI智能体84.8%、AI数字人78.7%、数字病理标注92.0%。结论:数字化赋能的推理导向病理学教改与成绩提升及推理相关题型表现改善相关,学生认可度高;但仍需稳定命题蓝图、进行难度等值或采用独立的临床推理测评工具进一步验证。
Abstract: Objective: To evaluate the reform effects of digital empowerment teaching in pathology aimed at cultivating clinical reasoning skills under the background of new medical sciences. Methods: A quasi-experimental design with a matched control was adopted. The control group consisted of 2022 clinical medicine undergraduates (traditional lecture, N = 352), while the reform group comprised 2023 students (digital empowerment teaching, N = 459). Both groups participated in the final examination (maximum score 100) under the same course and assessment system, with identical instructors, teaching hours, and assessment procedures, and the same question setter. The written test scores, scoring rates for basic questions and clinical reasoning questions, and cognitive level distribution in the test papers were compared. A Likert 5-point satisfaction questionnaire was administered to the reform group (459 copies distributed, recovery rate approximately 79%, n ≈ 363). Results: The average score of the reform group was 62.48, higher than that of the control group (60.22) (mean difference 2.26, 95% CI 0.28~4.24, p ≈ 0.026). The scoring rates for basic questions and clinical reasoning questions increased from 47.65% to 66.80% and 54.35% to 70.50%, respectively. The proportion of “interpretation” in cognitive levels rose from 29.79% to 47.83%, while recall slightly decreased (40.43%→39.13%) and problem-solving declined (29.79%→13.04%). The proportions of very satisfied respondents were: AI agent 84.8%, AI digital human 78.7%, and digital pathology annotation 92.0%. Conclusion: The digitally empowered reasoning-oriented pathology teaching reform is associated with improved academic performance and enhanced performance in reasoning-related question types, with high student recognition. However, further validation is required by stabilizing the test blueprint, achieving equivalent difficulty levels, or adopting independent clinical reasoning assessment tools.
文章引用:鲁华. 以临床推理为导向的数字化赋能病理学教改评价[J]. 教育进展, 2026, 16(3): 761-768. https://doi.org/10.12677/ae.2026.163544

1. 引言

新医科建设强调面向未来医学发展需求,推进医学教育理念、体系与模式创新,强化岗位胜任力与核心能力培养[1]。在国家教育数字化战略持续推进的背景下,信息技术与教育教学深度融合成为高等教育改革的重要方向,为课程从“知识传递”走向“能力生成”提供了技术与生态支撑[2]

病理学作为基础医学与临床医学的桥梁课程,其核心价值不仅在于形态学识别与术语掌握,更在于支持学生基于病理证据解释临床现象、形成诊断与鉴别诊断思路并进行合理决策,即临床推理能力的系统建构[3]。然而,传统以讲授与观察为主的教学模式容易导致学生在面对病例情境时出现“会背不会用”“知其然不知其所以然”的学习困境,推理链条(病变–机制–功能障碍–临床表现–诊断决策)缺乏反复练习与反馈[4]

近年来,翻转课堂与案例教学(CBL)被证明有助于释放课堂时间用于高阶思维活动,并促进知识迁移与临床情境应用[5]。同时,虚拟仿真与技术增强型模拟可为学习者提供低风险、高重复的情境练习机会,对能力培养具有积极作用[6]。基于此,本研究构建“数字化赋能–临床推理”整合教学模型,将AI智能体、AI数字人虚拟诊疗与数字病理标注等工具嵌入翻转课堂与CBL流程之中,采用届别对照的准实验设计,评价改革对学习成效与学生满意度的影响,并对测量可比性进行讨论。

2. 方法

2.1. 研究设计

采用准实验研究设计中的届别对照(历史对照)模型,对2022级与2023级两届临床医学本科生的病理学课程学习结果进行比较。

2.2. 研究对象与分组

对照组为2022级临床医学本科生,采用传统讲授式学习,N = 352。改革组为2023级临床医学本科生,实施数字化赋能教学改革,N = 459。

为增强组间可比性,研究对两组学生入学后《系统解剖学》《组织学与胚胎学》《生理学》等前期基础课程成绩进行同质性检验,结果显示差异无统计学意义(p > 0.5),提示两组基础学习水平可比。

两组教学过程控制条件如下:授课教师相同;教学章节与学时分配一致;考核流程一致;命题教师为同一人。

2.3. 教学干预(改革组)

改革组实施“数字化–临床推理”整合模型,包含课前导学、课中翻转与基于案例的学习(Case-Based Learning, CBL)、课后沉浸式实训三阶段闭环,并贯穿数字病理标注训练。理论基础为建构主义学习观与支架式教学理念[7]

2.3.1. 智慧导学(课前)

利用自建病理学AI智能体(AIagent)推送预习任务与引导性问题,支持学生围绕病例线索建构概念网络与差异点清单,形成“先建构、后纠偏”的学习路径[8]

2.3.2. 翻转课堂与CBL (课中)

采用翻转课堂,学生基于课前任务完成基础学习,课堂主要用于病例驱动讨论。结合CBL案例,使用手机投票等即时反馈工具进行关键节点诊断与机制解释判断,教师聚焦于推理链条与常见认知偏差的纠正与强化[9]

2.3.3. 沉浸式实训(课后)

引入AI数字人虚拟病人,学生完成“病史采集–信息提取–假设生成–病理证据整合–诊断/鉴别–决策评估”的流程化练习,并根据系统反馈开展反思与再练习[10]

2.3.4. 数字病理标注训练(贯穿)

以数字切片资源开展定位、标注与结构化描述任务,要求学生用规范术语表达病变要点,并明确其与临床表现/检查结果/诊断要点之间的证据关系[11]

2.4. 评价工具与指标

2.4.1. 结业考试

两组均参加课程结业考试,满分100分。比较:

(1) 卷面平均分;(2) 最高分;(3) 标准差;(4) 基础题得分率;(5) 临床推理题得分率;(6) 全章节掌握度。

2.4.2. 试卷认知层次分布

基于Bloom认知目标分类思想,将试题按考查层次归入回忆、解释与问题解决三类,统计各类占比[12]

2.4.3. 满意度问卷

对改革组发放Likert 5级满意度问卷459份,回收率约79% (n ≈ 363),汇总“非常满意”比例,并辅以“基本满意/不满意”分布与主要获益点描述。

2.4.4. 质性资料收集与分析

在改革组Likert满意度问卷后设置3个开放题,收集学生对AI智能体、AI数字人虚拟诊疗与数字病理标注的真实体验,最后对开放题回答回收后进行汇总、归纳与分析。

(1) 上述工具在你学习临床推理(证据–解释–结论)中最有帮助的是什么?请结合一次具体学习/病例经历说明。

(2) 你使用这些工具时遇到过哪些困难或不可靠情况(如网络/提示词/回答不一致等)?你通常如何核对与纠错?

(3) 在复杂病例或论述题中,你是否出现过“先向AI要结论/模板再补理由”的情况?你认为AI总体上促进了还是削弱了你的深度推理?你建议课程增加哪些规则/评价方式来避免依赖(如延迟提示、过程评分、强制呈现推理链等)?

2.5. 计学处理

采用SPSS26.0进行统计分析。计量资料以M表示,离散程度以SD表示;组间均值差以95% CI呈现。检验水准为双侧,以p < 0.05为差异具有统计学意义。

3. 研究结果

3.1. 认知层次分布的结构化变迁

与2022级相比,2023级试卷在“回忆”层级占比基本稳定,“解释”层级占比显著提升,而“问题解决”层级占比下降。见表1

Table 1. Distribution of cognitive levels in two examinations

1. 两届试卷认知层次占比分布

认知层次

2022级占比

2023级占比

试题特征

占比变动

背后逻辑

回忆

40.43%

39.13%

考查定义、形态术语、发病率等

基本持平

基础知识仍是推理的前提

解释

29.79%

47.83%

考查“为什么发生此病变”、“此病变导致何种表现”

显著上升

核心教学重心,强化逻辑建构

问题解决

29.79%

13.04%

给定复杂临床案例,要求鉴别诊断并提出方案

占比下降但难度剧增

向真实临床挑战看齐,强调区分度

3.2. 跨年级考核成效对比

两组卷面成绩比较,改革组平均分高于对照组(均值差2.26,95% CI 0.28~4.24,p ≈ 0.026),差异具有统计学意义。见表2

Table 2. Comparison of final exam performance between 2022 and 2023 classes

2. 2022级与2023级结业考试表现对比

指标

2022级对照组(N = 352)

2023级改革组(N = 459)

95% CI

p值

平均分M (分)

60.22

62.48

0.28~4.24

0.026

最高分(分)

91

96

标准差SD

13.45

15.18

基础题得分率(%)

47.65

66.80

临床推理题得分率(%)

54.35

70.50

3.3. 章节掌握度对比及题型/难度演变

考试涉及的若干章节中,关于机制解释、临床推理的题目得分率波动较大。见表3

Table 3. Comparison of chapter mastery between two sessions and evolution of question types/difficulty (%)

3. 两届全章节掌握度对比及题型/难度演变(%)

章节名称

2022级掌握度

2023级掌握度

变动

核心题型演变(2022→2023)

常见传染病及寄生虫病

35

62

+27

都是客观(A1/A2)为主

细胞、组织损伤与修复

36

58

+22

都是客观(A1/A2)为主

呼吸系统疾病

48

59

+11

增加A2推理题比例,强调炎症病理分析

消化系统疾病

47

38

−9

增加复杂案例,侧重机制解释与综合论述

心血管系统疾病

54

33

−21

2022为基础问答→2023为复杂临床案例

肿瘤

45

38

−7

2023引入高难度前沿概念与问答

乳腺及生殖系统疾病

95

63

−32

2022为高分A1→2023增加机制解释

局部血液循环障碍

77

2

−75

2022为易答A1→2023为极难临床综合推理

泌尿系统疾病

100

19

−81

2022为基础选择题→2023为复杂病例分析

3.4. 数字化教学工具认可度(改革组满意度)

学生对数字化教学工具认可度较高,见表4

Table 4. Evaluation of digital teaching tools by the reform group (%)

4. 改革组对数字教学工具的评价(%)

评价维度

非常满意

基本满意

不满意

主要获益点(归纳)

AI智能体交互

84.8

12.2

3.0

实时答疑,弥补知识盲区

AI数字人虚拟诊疗

78.7

17.2

4.1

降低临床接触焦虑,训练流程化思维

数字病理标注

92.0

6.8

1.2

聚焦关键形态,提高学习效率

3.5. 开放题文本(质性)结果

对改革组开放题回答回收后进行汇总与归纳,形成以下主题:

(1) 促进机制:学生对AI工具的正面评价主要集中在“减压”与“效率提升”上。多数学生描述AI智能体能“即时答疑、补齐盲区”,帮助其快速梳理“病变–机制–表现”的解释链;数字病理标注则促使其聚焦关键形态并用规范术语形成可陈述的证据,从而提升推理表达的清晰度。

(2) 技术障碍:学生也反馈了大量影响深度学习的技术障碍。部分学生提到,AI智能体有时会出现回答前后不一致,或给出逻辑自洽但医学上错误的解释,即“看似合理但不正确”的情况。这种不确定性增加了学生的核实负担,甚至导致了认知混乱。部分学生认为AI的反馈过于公式化,难以应对“如果……那么……”式的发散性提问,导致讨论往往停留在表面。

(3) 依赖风险:部分学生承认在综合病例或论述题中会倾向于先获取结论或作答框架再补理由,导致证据比对、鉴别诊断与反证环节练习不足;同时,学生普遍建议通过“先独立作答后开放AI (延迟提示)”、要求提交完整推理链、以及对推理过程评分等方式抑制依赖、强化深度思考。

4. 分析与讨论

4.1. 结业考试数据的统计学阐释与测量等值性讨论

本研究在教师、学时、流程与命题教师一致的控制条件下,改革组卷面平均分较对照组提高2.26分且达到统计学显著(p ≈ 0.026),提示数字化赋能的推理导向教改与总体学习成效改善相关(表2)。然而,跨年级的届别对照需谨慎处理“难度等值”问题。虽然命题教师相同,但由于考核重心向“解释”迁移,题型的复杂度和主观题的评分标准可能发生了系统性偏移。

从结构性指标看,临床推理题得分率提升(54.35%→70.50%)与“解释”层级占比显著上升(29.79%→47.83%)方向一致,表明课程可能实现了从“形态识别/知识再现”向“机制解释/证据整合”的教学重心迁移,这与临床推理理论强调的“基于证据的解释与假设检验”相契合[13]

4.2. 数字化赋能促进推理学习的可能机制

表4显示学生对数字化教学工具认可度较高。其促进学生推理学习的可能机制如下:

(1) AI智能体用于课前导学与即时答疑,可能降低学习者在基础概念阶段的无效认知负荷,使课堂资源集中于推理链条构建[14]

(2) 翻转课堂结合CBL为学生提供“可讨论的病例证据”,通过同伴互证与教师支架,促进推理表达与纠错[15]

(3) AI数字人虚拟诊疗提供低风险、高重复的流程化练习机会,与技术增强模拟训练改善能力表现的研究结论一致[16]

(4) 数字病理标注将“看见形态”转化为“可被评价的证据陈述”,可能解释其最高的“非常满意”比例(92.0%),并为推理训练提供可视化证据基础[17]

4.3. “问题解决”占比下降与章节掌握度波动的原因分析

表1显示,与2022级相比,2023级试卷在“回忆”层级占比基本稳定(40.43%→39.13%),而“解释”层级占比显著提升(29.79%→47.83%),与本次改革强调“病理证据–机制–临床表现–诊断决策”推理链条训练的目标一致;但需要正视的是,“问题解决”层级占比下降(29.79%→13.04%),且表3所示若干章节中,涉及综合信息提取、鉴别诊断与方案论证的题目得分率波动较大。

传统上,成绩下降常被简单归因为“题目更难”或学生个体差异,但本研究中命题教师一致性与前期基础课程成绩同质性在一定程度上排除了上述表层干扰,因此更可能由多因素共同作用所致:其一,命题蓝图的重心向“解释/机制阐释”倾斜,使“问题解决”题量与权重减少,客观上降低了该层级在总体结构中的呈现;其二,从章节表现看,改革组在以客观题(A1/A2型)为主、逻辑相对线性的内容(如传染病、组织损伤)中表现更优,而在引入高难度综合案例、强调非结构化问题解决的章节中掌握度出现明显下滑(如泌尿系统疾病章节从100%降至19%),提示学生在脱离数字化支架后独立组织复杂逻辑链条的能力仍较薄弱。

结合教学过程以及质性结果推断,课前AI智能体的“即时问答式”碎片化互动虽提升学习效率与解释生成速度,但也可能诱发“快速获取结论”的策略偏好,弱化在矛盾证据间反复权衡、完成信息筛选与推演外显的刻意练习,进而在真实临床情境所要求的非结构化问题解决任务中表现受限;该现象亦可用“认知卸载”解释,即高负荷整合任务被外包后,深度加工与推理链建构训练不足。

最后,本次考核中章节掌握度的剧烈波动,也可视为评价导向由“知识点正确率”转向“能力链完整性”时产生的真实阵痛:复杂案例的高区分度更容易暴露学生在高阶思维与综合决策环节的短板,因此不宜将其简单等同为能力退步,而应据此优化命题蓝图与过程性评价,强化推理过程外显、证据权重比较与反证训练,以更有针对性地提升“问题解决”能力[18]

4.4. 技术依赖风险与教师角色转型

结合量化数据与质性结果分析,AI工具在提升学习效率的同时,可能带来学生对AI生成结论的盲目依赖风险[19]。具体表现为:学生可能直接获取诊断结论而跳过“证据比对–逻辑推导”等关键推理环节;AI生成总结易造成“看懂即掌握”的错觉,部分替代“自我生成、深度检索”等深度学习过程,导致理解与应用之间出现断层;学生也可能更依赖要点化信息,减少对机制推导与病例长文本的深度阅读,从而削弱在长病例情境中的信息提取与整合能力。此外,AI还可能产生“幻觉”,输出看似自洽但医学上错误的病理机制解释,对医学教育的严谨性构成潜在威胁。

针对技术依赖风险,数字化教改应由“技术赋能”转向“认知赋能”,将AI从“答案提供者”重定位为“学习促进者”,并以“过程评价闭环”压实推理训练:课前AI仅提供关键词与线索,促使学生回归教材自主建构;课中要求呈现推理步骤(如思维导图)并与AI方案对照,训练证据提取与逻辑修正;课后弱化提示、以追问驱动纠错,强化独立决策与错误驱动学习;考核增加含冲突信息的非结构化病例比重,评估脱离工具后的真实推理能力。同时系统提升学生AI素养与批判性意识(如算法偏误与“幻觉”识别训练),形成“会用AI、更会审计AI”的能力框架。教师角色亦需从知识传递者转向教学“总设计师”,把精力投入高质量提问、反馈与评价设计,并承担医学人文引导职责,强化诊断责任与同理心,弥补数字技术难以传递的人文关怀[20]

5. 结论与展望

数字化赋能为病理学教学带来新的学习支持方式。本研究基于届别对照与质性问卷结果表明:数字化工具有助于提升学生对基础理论的理解与解释性表达,但在碎片化使用与“认知卸载”等情况下,可能削弱学生在高阶“问题解决”任务中的独立推演与综合判断表现。

研究提示,数字化赋能并非自动带来能力提升。若缺少对深度推理过程的明确要求与过程性评价约束,技术支持可能被简化为获取结论的工具,进而增加技术依赖风险。后续教改应在学习效率与思维深度之间优化平衡,通过完善评价体系、强化推理过程呈现与反馈,并系统开展AI素养与批判性思维训练,使数字化转型更有效服务于临床推理能力培养。

参考文献

[1] 吕洋, 李秀娟, 金春亭. 新医科背景下病理学课程“五融合”教学模式的探索与实践[J]. 继续医学教育, 2024, 38(2): 29-32.
[2] 冯婷婷, 刘德建, 黄璐璐, 等. 数字教育: 应用、共享、创新——2024世界数字教育大会综述[J]. 中国电化教育, 2024(3): 20-36.
[3] 步宏, 李一雷. 病理学[M]. 第10版. 北京: 人民卫生出版社, 2024.
[4] 杨亮, 刘晓霞, 雷世鑫. 临床病理学课程教学改革与实践[J]. 西部素质教育, 2023, 9(18): 9-12.
[5] 尹文, 滕云球, 孔令令, 等. 慕课结合翻转课堂在内科学教学中的应用分析[J]. 继续医学教育, 2023, 37(2): 80-83.
[6] Al-Rashedi, N.A. (2024) The Effectiveness of Virtual Patient Simulations in Enhancing Medical Education: A Systematic Literature Review.
[7] Jay, R., Davenport, C. and Patel, R. (2024) Clinical Reasoning—The Essentials for Teaching Medical Students, Trainees and Non-Medical Healthcare Professionals. British Journal of Hospital Medicine, 85, 1-8. [Google Scholar] [CrossRef] [PubMed]
[8] Abd-Alrazaq, A., Al-Jifar, A., Alneghaimshi, A., et al. (2025) Generative Artificial Intelligence Use in Healthcare: Opportunities for Clinical Excellence and Administrative Efficiency. Journal of Multidisciplinary Healthcare, 18, 123-145.
[9] 张艳丽, 蒋楠楠, 李秀川. 翻转课堂联合CBL教学法在临床实习带教中的效果评价[J]. 全科护理, 2024, 22(5): 889-892.
[10] Ajemba, M.N., Ikwe, C. and Iroanya, J.C. (2024) Effectiveness of Simulation-Based Training in Medical Education: Assessing the Impact of Simulation-Based Training on Clinical Skills Acquisition and Retention: A Systematic Review. World Journal of Advanced Research and Reviews, 21, 1833-1843. [Google Scholar] [CrossRef
[11] Hanna, M.G., et al. (2024) Bridging the Clinical-Computational Transparency Gap in Digital Pathology. Archives of Pathology & Laboratory Medicine, 148, 550-555.
[12] Meehan-Andrews, T. (2024) Harnessing Bloom’s Taxonomy to Develop In-Depth Review Articles. The Asia Pacific Scholar, 9, 1-5.
[13] Cooper, N. and Frain, J. (2023) ABC of Clinical Reasoning. 2nd Edition, Wiley-Blackwell.
[14] Owusu-Agyeman, Y. (2025) AI Misuse and Passiveness of Students in Medical Education. Advances in Physiology Education, 49, 1-10.
[15] Zhang, X., Wang, Y., Yang, Y., et al. (2024) Effects of Case-Based Learning in Medical Education: A Meta-Analysis. Nursing Education Today, 132, Article ID: 106020.
[16] So, H.Y., Chen, P.P., Wong, G.K.C., et al. (2024) Simulation in Medical Education. Journal of the Royal College of Physicians of Edinburgh, 54, 68-75.
[17] Parwani, A. (2025) Whole Slide Imaging (WSI) in Pathology: Emerging Trends and Future Applications in Clinical Diagnostics, Medical Education, and Pathology. Journal of Pathology Informatics, 16, Article ID: 100100.
[18] Kinnear, B., St-Onge, C., Schumacher, D.J., Marceau, M. and Naidu, T. (2024) Validity in the Next Era of Assessment: Consequences, Social Impact, and Equity. Perspectives on Medical Education, 13, 452-459. [Google Scholar] [CrossRef] [PubMed]
[19] BMJ Evidence Based Medicine (2024) Overreliance on AI Risks Eroding New and Future Doctors’ Critical Thinking While Rein-Forcing Existing Bias. BMJ Evidence-Based Medicine, 29, 1-3.
[20] Masters, K. (2023) Ethical Use of Artificial Intelligence in Health Professions Education: AMEE Guide No. 158. Medical Teacher, 45, 574-584. [Google Scholar] [CrossRef] [PubMed]