摘要: 目的:本研究旨在综合生成式人工智能在医学教育中的潜在机会、局限性和未来方向与前景,并使用这些来指导未来的探索领域。方法:对2022年以来发表的在医学教育背景下讨论生成式人工智能的英文文章进行了范围审查。使用PubMed、谷歌学术和sci-hub数据库进行文献检索。结果:主题分析揭示了生成式人工智能在医学教育中的多种潜在应用,包括自我导向学习、模拟场景和写作辅助。然而,文献也强调了重大挑战,如学术诚信、数据准确性和对学习的潜在危害等问题。针对各种机会和局限提出未来方向与前景。结论:生成式人工智能在医学教育中的整合带来了激动人心的机遇,同时也带来了巨大的挑战。有必要开发与人工智能相关的新技能和能力,以及深思熟虑、细致入微的方法来检查生成式人工智能在医学教育中日益增长的使用。
Abstract: Objective: This study aims to synthesize the potential opportunities, limitations, and future directions and prospects of generative artificial intelligence in medical education, and use these to guide future areas of exploration. Methods: A scoping review was conducted of English articles published since 2022 discussing generative AI in the context of medical education. PubMed, Google Academic and sci-hub databases were used for literature search. Results: Thematic analysis revealed multiple potential applications of generative AI in medical education, including self-directed learning, simulation scenarios, and writing assistance. However, the literature also highlights significant challenges, such as issues of academic integrity, data accuracy, and potential harm to learning. Present future directions and perspectives for various opportunities and limitations. Conclusion: The integration of generative AI in medical education presents exciting opportunities as well as enormous challenges. There is a need to develop new skills and competencies related to AI, as well as thoughtful, nuanced approaches to examine the growing use of generative AI in medical education.
1. 引言
近几十年来,医学教育经历了重大变革,这源于技术进步、医疗保健需求的不断发展以及适应性学习方法的创新[1]。在各种教学方法中,基于案例的学习(CBL)已成为一种动态的教育策略,通过基于探究的学习将理论知识与现实世界的临床应用联系起来。CBL通过让学生沉浸在能够增强他们解决问题和决策技能的情境化、协作式临床场景中,促进了批判性思维、更深层次的学习者参与和改进的临床推理。然而,传统的CBL面临着可扩展性的限制。为了满足更广泛的学习者群体,生成多样化的案例集需要教育工作者持续投入,但他们适应独特学习者需求的能力受到限制[2]。这些挑战凸显了对资源高效、可扩展且适应性强的方法的紧迫需求,这些方法可以增强CBL的教学效果而不影响教育成果质量,因此需要寻求新的突破。
生成式人工智能(Generative AI)是人工智能的一个重要分支,它通过学习大量数据并从中提取模式和规律,能够生成新的、类似于训练数据的内容。与传统的人工智能技术(通常依赖于规则和预设逻辑)不同,生成式AI通过自我学习创造新的、从未见过的内容。生成式AI利用机器学习中的生成模型,如生成对抗网络(GANs)、变分自编码器(VAEs)、自回归模型(如GPT系列)等,通过大量的训练数据学习并生成新的数据。例如,GPT模型通过理解和预测语言的结构,生成自然语言文本。这些模型通常分为生成模型(专注于生成新的数据样本)和判别模型(主要区分输入数据的类别),在自然语言处理、图像生成、音乐创作、游戏开发、数据增强与合成、视频生成与编辑等领域得到广泛应用[3] [4]。
尽管生成式人工智能具有潜在的好处,但在医学教育中的应用仍未充分探讨。此外,人工智能对教育成果的影响以及可能出现的伦理和技术挑战仍然存在疑问。因此,本次范围审查旨在描绘有关生成式人工智能在医学教育中作用的现有证据,并确定未来研究和实际实施的机会,以填补这些空白。
2. 生成性人工智能在医学教育中的潜在益处
2.1. 独特和个性化的学习
相较于传统基于计算机模拟,这些人工智能工具提供更动态、更真实的学习体验,为医学学生呈现更复杂的实践场景,促进临床决策和患者护理[5]。借助生成式人工智能的高级自然语言理解和生成功能,高级智能平台能为学生提供与上下文相关的患者场景,比以往的基于计算机模型更富动态性和适应性[6]。相较于旧模型,生成式人工智能的优势在于其能够生成独特和个性化的响应,为学生打造更具吸引力和真实交互。这些增强功能支持创造沉浸式模拟和数字患者,提供更有效、个性化的教育体验。这些人工智能工具可根据学习者表现和独特学习需求,在模拟练习中提供实时个性化反馈,帮助学生发现改进之处,提升能力。此外,生成式人工智能可为每位学习者生成定制的模拟场景和案例研究,让他们在受控环境中重复练习特定技能,促进技能的获得和完善。除了让学生受益外,这些工具还可通过资源支持和模拟实施建议协助教育工作者。尽管人类演员扮演的模拟病人具有高度真实感,但人工智能驱动的模拟提供了可扩展、经济高效的替代方案,可根据每位学生的学习需求进行定制,因此,这种创新方法代表了相较传统基于计算机的医学模拟的重大进步。
2.2. 针对性教学规划
在医学教育中采用生成式人工智能有助于构建更个性化、更有效、更针对性的评估方法[7]。个性化测验的创建是生成式人工智能在医学教育评估中的一个范例,通过精密分析每位学生的优势和劣势,生成式人工智能可为每位学生生成独特的评估结果。这包括侧重学生需改进领域和擅长主题的问题组合,提供更平衡、更针对和更准确的医学知识评估。通过分析学生表现并提供实时反馈,这些人工智能驱动的工具可协助教育工作者制定定制学习计划,满足个人需求,提升整体效果。
2.3. 基础论文辅助
生成式人工智能工具可以为论文撰写及对提示的书面回复提供通用模板,帮助编辑进行语法检查并组织思路[8]。对于缺乏自信或需要指导的学习者,ChatGPT及类似的写作工具(如Jasper)可用于创建初步大纲和草稿。因此,生成式人工智能有潜力为写作和语言水平不同的学生提供公平的竞争环境,并获得导师等资源的支持。尽管ChatGPT所生成的个人陈述的真实性引起了关注,但其作为免费编辑服务的潜力不容忽视。生成式人工智能的这种能力应促使论文提示的作者更加深思熟虑,以确保其提示能够最大化个性化的潜力,同时最小化对人工智能辅助的过度依赖。例如,一篇促进个人叙述的文章[9]可能会提示:“描述一个重大的个人挑战或一次为您进入医学院做准备的独特经历。”这种类型的提示需要超越ChatGPT仅仅总结事实和信息的能力,促进创造性思维的发展。
2.4. 全球性学术交流
人工智能及其生成语言模型(GLMs)在医学教育中的一个重要潜在好处是增强机器翻译的能力,从而促进全球合作与知识交流。虽然机器翻译并非新概念,但人工智能和GLMs的出现显著提高了其准确性与复杂性,使其在医学教育背景下成为一个相关的讨论点。例如,易贝的机器翻译服务较以往提高了7%的翻译准确率[10],这表明人工智能在克服语言障碍方面的潜力。这种进步的影响延伸至医学教育,提高翻译准确性有助于促进全球合作与知识共享。人工智能驱动的语言模型能够实时翻译医学讲座、网络研讨会及研究文章,从而使来自不同语言背景的个人能够获取关键信息。这将创造一个更加包容的学习环境,并确保医学知识及患者护理领域的进展能够在全球范围内普及。因此,尽管机器翻译本身并不新鲜,但先进的GLMs的应用有望对早期模型做出显著改进,其潜在益处不应被忽视。
2.5. 提升教师的教学效率
生成式人工智能还可以帮助护理教师优化教学内容的设计与管理。通过自动生成考试题目、作业及课程内容,教师能够节省更多时间,专注于学生的个性化辅导及其它教学活动。同时,人工智能还可帮助教师分析学生的学习数据,识别学习中的难点与障碍,为进一步改进教学方法提供数据支持。鉴于及时且频繁的反馈在形成性评估中的重要性,生成式人工智能可以增加学习者获得反馈的机会,同时减少教师的时间支出,并可能提升共享反馈的深度与质量[11]。
2.6. 让学生为人工智能增强的医疗保健工作场所做好准备
人工智能可以融入护理课程中,为学生储备工作场所所需的人工智能相关技能[12]。这可能涉及多种形式,例如教授学生如何设计生成式人工智能研究提示、进行文献综述,或练习如何运用人工智能临床工具。随着人工智能在课堂和工作场所的普及应用,保持学术机构与潜在雇主之间的沟通将显得尤为重要,以确保学生能够满足工作场所的需求。全球范围内的研究已经展开,旨在让学生为未来的职业做好准备。更深入了解学生在课程作业中使用生成式人工智能的情况,能够帮助我们的引导他们采用最佳实践。这些信息将有助于提供有关与人工智能使用相关的学术政策的信息。
3. 生成式人工智能在医学教育中的潜在局限性
3.1. 个人数据隐私无法确保
人工智能在教育领域应用的一个重要伦理问题是围绕数据隐私展开的。人工智能系统依赖大量个人数据以实现最佳功能,其中包括敏感的学生信息,如学习模式、表现指标,甚至生物特征数据。对这些数据的处理引发了重要的隐私问题。欧盟的一般数据保护条例(GDPR)及其他法规[13]要求:机构必须确保人工智能工具遵守严格的数据保护法规,GDPR规定对于数据同意、透明度和被遗忘权的指导方针,未能坚守这些政策可能构成挑战。数据泄露风险:人工智能系统的广泛应用增加了数据泄露的风险。教育机构须采取先进安全协议,以防止未授权获取敏感数据,这可能带有技术挑战和经济成本。
3.2. 学术诚信的担忧
ChatGPT等生成式人工智能工具在高风险的学术考试中可能产生与学生生成内容难以区分的叙事,这引发了教育工作者的恐慌。在医学教育领域[14] [15],ChatGPT在所有3项执业医师考试中均达到或接近及格标准。这些发现自然引起了对作弊的担忧,并向学术机构提出检测不诚实行为的挑战。学术诚信对于准确评估学生发展水平至关重要。虽然考试安全问题在教育领域并非新鲜,但ChatGPT等生成式人工智能工具拓宽了安全问题的范围。作弊一直存在于在线考试中的长期问题[16]。ChatGPT等工具促进了在线考试环境中的信息获取。在开放式问题考试中,ChatGPT会生成文本响应提示,这使得难以区分学生生成内容和工具生成草稿答案,也难以被抄袭检测系统检测到。因此,教育者难以区分学生的真实专业水平[17]。检测由ChatGPT等工具生成的语言的机制目前尚未广泛使用。
3.3. 歧视与偏见问题
由于其训练数据,人工智能系统已被证实表现出歧视性,并加剧了现有的刻板印象。将GLMs引入医学教育需要谨慎处理并解决潜在的偏见。以往的几起事件,如微软的Tay chatbot在社交媒体上发布种族主义和性别歧视内容,以及面部识别技术中的种族偏见,表明了保持警惕的必要性[18] [19]。通过从这些案例中汲取经验教训并避免潜在陷阱,我们可以开发更具道德和客观性的人工智能系统用于医学教育。为确保公平和负责任的教育资源发展,促进准确知识传授和维护医学专业诚信,必须解决内在的偏见和伦理问题。最近,研究人员开发了经过逻辑训练的语言模型,通过使用上下文和语义来预测句子之间的关系,极大地减少了有害的刻板印象[20]。该模型在逻辑语言理解任务中胜过大规模模型,证明了利用逻辑学习来减轻GLMs中偏见和刻板印象的潜力。
3.4. 虚假信息和网络攻击威胁
随着AI-4在各行业掀起波澜,认识到人工智能集成带来的潜在风险至关重要。OpenAI的首席执行官强调了大规模虚假信息和网络攻击威胁的突出问题[21]。在将生成式人工智能应用于医学教育时,这些风险显得尤为重要。鉴于医疗保健领域的高风险性和潜在危害,医学教育界必须格外警惕并积极管理这些潜在问题。例如,人工智能生成内容的质量至关重要,需进行仔细评估以确保准确性和相关性,同时采取适当提示和迭代反馈措施,有助于提高医学教育中人工智能生成内容的质量和可靠性[22]。
3.5. 准确性和可靠性差
尽管生成式人工智能是基于大量数据训练的,但其依赖训练数据导致可能存在错误或遗漏情况,而训练数据本身可能含有不准确信息[23]。幻觉是一种技术上的误导,即使答案完全错误,ChatGPT也会自信地重复回答并提供清晰解释[24]。这表现为模型表达的自信,ChatGPT可能会提供一篇关于肝脏受累的论文,然而该论文实际上并未被报道过[25]。需要进一步培训以解决这些局限性,虽然人工智能在医学课程中的代表性仍不足,学生们缺少更深入参与人工智能主题并发展所需专业知识的机会[26]。
4. 生成性人工智能的未来方向和前景
4.1. 增强人工智能在学习中的集成
人工智能自适应生态系统:建立全面的人工智能驱动生态系统,能够动态适应学生的学术和情感需求。这些系统可利用情感人工智能(情感计算)感知学生情绪和压力水平,从而调整教学节奏和方法,提升学习成绩同时增进学生幸福感。虚拟人工智能队列:探索创建虚拟人工智能队列,其中人工智能实体扮演同伴角色,与学生参与讨论和协作学习。这类虚拟队列可为每位学习者提供支持,促进社会互动,尤其在远程学习环境中。区块链启用认证:利用区块链技术管理教育认证,使人工智能能够自动更新和验证,同时为学生记录和成就提供一个分散的、防篡改的存储库,推动全球资格的无缝转移和认可。
4.2. 解决道德和社会问题
人工智能伦理顾问委员会:成立包括智能专家、伦理学家、学生和教师的人工智能伦理顾问委员会,监督人工智能技术的伦理部署。该委员会还将制定定期的道德审计流程,并确保符合国际标准;全国性人工智能教育联盟:设立专注于教育领域的全国AI联盟,以促进对伦理准则、技术标准和共享人工智能资源的合作;沉浸式人工智能法规模拟:开发并应用沉浸式虚拟现实模拟,培训教育从业者和管理人员了解人工智能的能力和伦理意义。这些模拟可帮助相关方亲身体验人工智能决策的潜在影响,提升他们负责任地监督和实施人工智能系统的能力。
4.3. 人工智能日常化
为适应生活在人工智能时代,我们必须像Lee [27]所建议的那样,通过首字母缩略词提示(策划和展望、重建、组织、提问、说服、在一起和感动),保持与人工智能的竞争力。通过此种提示方法,我们可以将人工智能驱动的语言模型(如ChatGPT)和人工智能应用融入我们的日常生活中。此外,提示方法还有助于实现更有效和富有创意的护理教育。例如,在妇女健康护理领域,强调通过与准备分娩的患者进行交流来提供个性化护理。通过使用PROMPT方法作为女性健康护理和女性健康护理模拟教育领域的伙伴和工具,我们可以为更有效和富有创意的护理教育做出贡献。
4.4. 学术机构的改进
随着生成式人工智能工具和大型语言模型(LLM)的快速发展,人们对未来这些技术可能导致人脑在几乎所有任务中处于休眠状态,甚至包括一些基本任务的担忧日益加剧。因此,医学院及相关学术机构比以往任何时候都更加迫切需要思考合理的策略,以将LLM的应用有效整合进医学教育中。一种可行的方案是为在各自职责中使用人工智能工具制定相应的指导方针或最佳实践。这些指导方针应明确向学生阐释在撰写论文、研究报告及作业时,如何恰当地披露或引用由LLM生成的内容。同时,学术机构还可以考虑订阅能够检测人工智能生成文本的工具,例如Turnitin、ZeroGPT和Originality.AI等。学术机构应当提供培训课程和研讨会,以教育学生及教育工作者如何在医学教育中有效且道德地运用这些工具。最终,学术机构应支持以学生为中心的教学方法,重视建立信任关系,并关注学习评估,而不仅仅局限于对学习评估本身的关注。
5. 小结
生成式人工智能具有广阔的前景,随着技术的不断发展,其在更多领域将发挥作用。未来,生成式人工智能可能在教育、医疗、设计、艺术创作等多个行业带来革命性变化。特别是在个性化内容创作、自动化生成和创新性设计方面,生成式AI将成为重要的工具。