大模型赋能大学计算机通识课程教学利弊分析与应对举措
Analysis of Advantages and Disadvantages of Large Model Empowering the University General Computer Curriculum and Proposed Countermeasures
DOI: 10.12677/ces.2025.133192, PDF, HTML, XML,    科研立项经费支持
作者: 朱 烨, 郭艳芬*, 刘仕筠, 魏 敏:成都信息工程大学计算机学院,四川 成都
关键词: 大模型课程改革利弊分析应对措施Large Model Curriculum Reform Analysis of Advantages and Disadvantages Countermeasures
摘要: 在教育数智化转型加速推进的背景下,大模型技术已经渗透到教育教学的各个环节,深刻改变着教师的教学模式与学生的学习方式,课程教学迎来了全新的机遇和挑战。如何充分利用大模型的优势,使其有效赋能课程教学的实施并提升教学效果,已成为教育教学领域的重要课题。文章聚焦于大学计算机通识课程教学过程,分析大模型技术在课程设计与实施,学生学习过程中的应用现状,并提出具有针对性的策略与方法,旨在助力课程教学实现创新发展与质量提升。
Abstract: In the context of accelerating digital intelligence transformation in education, large model technology has permeated all aspects of education and teaching, profoundly changing teachers’ teaching models and students’ learning styles. Curriculum teaching has ushered in brand-new opportunities and challenges. How to fully utilize the advantages of large models, enable them to effectively empower the implementation of curriculum teaching and enhance teaching effects, has become an important topic in the field of education and teaching. Focusing on the teaching process of general university computer courses, this article analyzes the current application status of large model technology in curriculum design and implementation, as well as its role during students’ learning processes. Furthermore, it proposes targeted strategies and methods aimed at facilitating innovative development and quality improvement in course instruction.
文章引用:朱烨, 郭艳芬, 刘仕筠, 魏敏. 大模型赋能大学计算机通识课程教学利弊分析与应对举措[J]. 创新教育研究, 2025, 13(3): 329-337. https://doi.org/10.12677/ces.2025.133192

1. 引言

人工智能对教育的深刻影响,正在积极推动人工智能和教育深度融合,促进教育变革创新。《教育强国建设规划纲要(2024~2035年)》中明确提出实施国家教育数字化战略,要求以教育数字化开辟发展新赛道,探索数字赋能创新性教学,从而推动教育教学改革,转变学校的人才培养模式。此外,文件还提到评价改革要将考查重点从学生的学科知识转向考核学生的综合素养,同时要注重教师教学中信息素养的提升,提升教师专业化水平[1]。怀进鹏部长在2024世界数字教育大会上强调了实施人工智能赋能行动,深化教育数字化战略行动,为世界数字教育提供有效选择[2]

高校作为人才培养的前阵,利用新技术进行教学创新,持续推进数字化教学资源建设和教学模式更新,提升教学质量,培养具备实践创新能力的复合型人才,是目前高等教育需要不断探索的方向和目标。人工智能技术已经渗透到教育教学的各个环节,正在改变着教师的教学模式与学生的学习方式。通用大模型作为人工智能领域的一个重要分支,其强大的语言理解和生成能力,能够为教师和学生提供个性化的教学支持和学习服务,已成为推动教育改革的重要驱动力,但其造成的使用者过度依赖、数据隐私、道德伦理等方面同样面临着考验,因此,对于现有通用大模型取其精华、弃其糟粕,充分发挥其优势,规避其潜在风险,本文以《大学计算机基础》一线课堂教学为例,分析大模型赋能教学的利弊以及应对举措。

2. 通用大模型原理

2.1. 大模型概述

通用大模型技术是专注于自然语言理解和生成任务的一种深度学习模型,其具有巨量参数、预训练与微调机制、多任务适应性等特点。大模型基于神经网络框架,通过在海量数据上进行预训练学习数据中隐含的复杂模式和规律,从而获取数据中的深层次的语义信息,达成语言理解和生成能力[3]。大模型能够处理多种语言任务,如内容生成、问题回答、文本摘要、语言翻译、情感分析等,该技术的应用标志着人工智能领域的研究进展已经通向了通用人工智能时代。

2.2. 技术基础

大模型技术涵盖深度学习、自然语言处理、分布式计算、硬件加速、模型压缩、跨模态等多个领域,其核心技术主要集中在深度学习和自然语言处理领域,包含模型预训练、适配微调、提示学习、知识增强和工具学习等关键技术[4],大模型通常采用“预训练 + 微调”范式处理自然语言任务。

大模型以深度学习的Transformer模型作为基础架构,能够处理长序列数据,通过自注意力机制捕捉文本数据中的全局信息,并通过网络层进行信息传递,从而增强上下文理解和推理能力[5]。Transformer模型由编码器和解码器两部分组成,编码器用于理解输入序列数据,解码器用于生成输出序列信息。现有语言大模型的架构在采用Transformer编码器与解码器结构上存在差异,可以分为三种建模策略:掩码语言建模、自回归语言建模、序列到序列建模[6]。掩码语言建模是基于Transformer编码器的双向模型,典型代表如BERT [7]和RoBERTa [8]。该模型通过标记随机替换输入序列中的个别字符,并预测该位置的真实字符,从而实现对上下文的理解。自回归语言建模主要是通过Transformer解码器来实现的,通过学习预测序列中的下一个词的条件概率来建模语言,代表性模型如Open AI的GPT系列[9] [10]、Meta的LLaMA系列[11]和Google的PaLM系列[12]。自回归语言模型适用于任务生成、情境学习、思维推理等。序列到序列建模同时使用编码器–解码器结构,将多种自然语言处理任务转化为文本序列的生成任务,代表性模型如T5 [13]和BART [14]

大模型通过自监督学习进行预训练,其技术主要包含:(1) 高效预训练策略,即设计高效的优化任务目标、热启动、渐进式训练、知识继承、可预测扩展等策略,旨在降低训练成本的同时提高模型性能。(2) 高效的模型架构,即统一序列建模处理多种自然语言任务和改进Transformer模型本身的计算复杂度、编解码效率及显存利用。

由于语言大模型在通用领域数据预训练时缺乏特定任务或领域知识,适配微调可以帮助大模型解决该问题以使用特定需求,以提升泛化能力和适应性。指令微调和参数高效学习是适配微调的关键技术。指令微调通过格式化的训练数据加强模型的通用任务泛化能力,让模型能够更好地理解人类指令并按要求完成任务,涉及指令理解、数据获取和指令对齐等内容[15]。参数高效微调针对传统全参微调的任务 “鸿沟”和高计算成本问题,通过添加式、指定式和重参数化等方法,仅微调少量参数实现全参微调效果,如适配器方法、优化偏置项和LoRA等技术,并出现了相关开源工具和微调仓库[16]-[18]

2.3. 通用大模型的应用场景

大模型技术在“大数据 + 大算力”的加持下,有着强大的自然语言处理、逻辑推理和生成能力,使得其具有广泛的应用领域,用来赋能不同行业,提升工作效率和加速行业迭代升级。随着ChatGPT的问世,生成式人工智能经历了从文本生成、文本摘要等自然语言处理,到图像与文本结合、视频生成等多模态学习,实现了多场景、多用途、跨学科的任务处理[19]

通用大模型是具有强大泛化能力和迁移学习能力,可在不进行微调或少量微调的情况下完成不同语义粒度的任务,进行复杂的逻辑推理,在新闻传媒、制造业、自动驾驶、金融、医疗、教育等领域展现出巨大的应用潜力,大模型赋能百业的场景成为助力各行业数字化转型与服务质量提升的推手。基于“大模型+”的工作方式不断涌现,如大模型 + 传媒可以使用大模型自动生成新闻稿件,根据用户的兴趣偏好生成个性化的新闻推送内容等;大模型+制造业可以帮助企业优化生产流程,提高生产效率,降低运营成本;大模型 + 金融能够准确理解金融业务场景需求,降本增效,实现智能客服、精准营销和风险控制等功能;大模型 + 医疗通过对患者病历、影像资料等多模态数据的综合分析,提供个性化的诊疗方案,帮助医生做出更准确的诊断和治疗决策。

大模型技术与行业需求的深度融合,不仅提升了各个领域的智能化水平和服务质量,还推动了各行业的持续创新与发展,让数字世界和现实世界的共生变得更为便捷、更为有效。

3. 大模型赋能大学计算机通识教学的应用与分析

在教育行业,大模型的诞生让教学过程实现了从传统教育到智能教育的跃迁,迎来了全新的机遇和挑战,为师生提供了教育数智化时代的“工具箱”。在大模型的赋能下,教师、学生和教育管理者分别获得了智能化的助教、助学和助管支持,不仅优化了教学的各个环节,还推动了教育的数字化升级[20]。本文将对我校大学计算机通识课程教学过程中的大模型应用现状进行分析。

3.1. 大模型赋能大学计算机通识课程教学新生态

在“人工智能+”的教育大背景下,课程贯彻“以智助教、以智助学”的导向,将大模型技术的应用深度融入教学的各个环节,重塑《大学计算机基础》课程的教学生态。图1所示为大模型驱动课程教学的系统框架图。

Figure 1. Large models empowering the new ecosystem of “University Computer Basics” course teaching

1. 大模型赋能《大学计算机基础》课程教学新生态

在教师端,基于大模型的辅助教学工具渗透到教学全周期,实现以智助教。课前,借助大模型计算生成契合课程需求的教学资源与前沿行业案例,同时构建知识图谱梳理课程脉络,为教学奠定坚实基础。课中,借助雨课堂等平台的AI交互功能,活跃课堂氛围、增强师生互动;以智能批改作业工具实现即时反馈,精准把握学情,并依此开展多元化评价,动态调整教学策略。课后,利用大模型深入剖析学生学习数据,为后续教学规划提供科学指引。

在学生端,大模型成为学习跃升的关键助力,达成以智助学。知识层面,大模型技术可以辅助学生精准获取学习资源和专业知识,能够拓宽知识边界;同时还能根据学生的学习状态和表现动态提供自适应的学习路径,如推荐相关学习资料、具备时效性的个性化反馈等。能力层面,借助自主学习工具,可以实现AI的智能答疑,学习进度跟踪等。课程设置的基于大模型的AI实验项目可以培养学生灵活运用计算机科学知识和AI技术的能力,不仅可以解决专业领域中的实际问题,促进学科交叉融合与创新发展,而且能够给学生生成开放性的问题,引导学生深入思考。素质层面,大模型驱动的项目实践和翻转课堂,使得学生接触各类大模型的学习应用,激发学生对计算机科学的兴趣,引导学生利用大模型技术辅助专业学科知识的学习。

3.2. 课程教学应用案例分析

3.2.1. 课程教学设计与实施

大模型通过提供个性化的教学支持、实时互动与反馈、多样化的教学资源以及自动化的备课工具等优势,正在改变教师的教学方式、课程教学设计和优化备课流程,从而提升教学效率和质量。大学计算机课程组建立了课程实施知识图谱,将教学资源、教学方法深度融入教学内容体系中,例如,将各类生动的案例资源、前沿的学术资料以及线上线下丰富的学习素材等与教学内容相连;同时把讲授法、讨论法、项目实践法等融入不同知识板块。教师借助这一知识图谱,能清晰洞察知识的内在逻辑与关联,精准规划教学内容设计、课堂教学实施提供了有力支撑。图2所示为课程实施知识图谱截图。

Figure 2. Screenshot of the course implementation knowledge graph

2. 课程实施知识图谱截图

在翻转课堂的教学模式中,教师通过大模型生成定制化的学习材料和课堂实施方案,帮助学生在课前自主学习基础知识;学生利用大模型技术生成个性化的学习材料和即时反馈,增强其自主学习能力。在综合实践项目中,学生利用大模型技术整合跨学科知识,设计创新性解决方案,并通过可视化工具展示成果,培养其计算思维和AI技术应用能力。这种技术驱动的学习方式不仅提升了学生的自主学习能力和参与度,还促进了深度理解和知识内化。

3.2.2. 利用大模型技术提升非计算机专业学生的AI素养与实践能力

在当今数字化时代,AI技术正以前所未有的速度融入各个领域,对于非计算机专业的学生而言,掌握AI素养已成为适应未来职业需求、推动专业创新发展的关键。《大学计算机基础》课程面向全校非计算机专业学生,在教学实践中充分考虑到不同专业学生的独特性与多样化需求,大模型技术可以辅助教师在教学中从跨学科视角引入具有专业针对性的案例,让学生能够在熟悉的专业情境中深刻体会大模型技术的应用价值,逐步掌握运用AI思维和大模型技术解决本专业问题的方法与技巧,进而有效培养学生的AI跨学科思维,为其未来在专业领域的创新发展奠定坚实基础。

在教学内容中,教师利用大模型技术收集和整理所授专业学科的AI应用案例,如在电子信息工程专业,讲解自动驾驶场景的智能图像与视频处理,AI技术可以处理车载摄像头采集的图像数据,识别道路标志、车道线、行人及其他车辆等,为车辆的自动驾驶决策提供关键信息。

在基于大模型的AI实验和综合实践项目中,将实验内容与专业挂钩的举措,不仅增强了学生对专业知识的理解和应用能力,还培养了他们解决实际问题的能力。例如,在电子信息工程专业的AIGC提示词实验课中,我们设计了一系列与专业紧密相关的实验任务。学生需要引导语言大模型回答有关电子信息工程专业背景、知识体系、前沿技术等方面的问题,并以此为依据剖析个人职业要素匹配度,进而生成涵盖短期专业深化学习与技能提升、中期实习科研参与、长期职业路径规划的个性化职业生涯报告。

基于WPS AI实验平台的实验项目,学生通过“AI帮我写”、“AI伴写”、“AI排版”、“AI阅读分析”等相关功能,能够根据学生提供的个性化、多样化表达,为学生提供语法修正、内容拓展、智能排版、文献阅读与理解等建议,帮助学生实现高效的学习和AI技术素养。通过此类实践教学内容,不仅可以培养学生的AI思维,而且可以有效强化学生专业知识运用及实际问题解决能力,切实达成跨学科培养目标。

3.3. 学生成效分析

课程开展了融合大模型和AI技术的《大学计算机基础》课程教学效果问卷调查,旨在了解学生在课前对大模型及AI技术的认知和接触程度,课中对大模型及AI内容掌握情况及技术使用,课后对AI意识、认知、技能和思维方面的提升情况。本文截取了部分问题及调查结果作为展示。

(1) 题目:通过学习AIGC提示词后,你学会了从哪些方面或角度更有效地与AI进行对话和交流?调查结果如图3所示。

Figure 3. AIGC prompt mastery level survey results

3. AIGC提示词掌握程度问卷结果

根据数据分析,绝大多数学生能够明确表达需求、使用恰当的语言、给大模型提供必要背景信息和关键词,并掌握了提问技巧,这对于学生后续利用大模型技术辅助学习提供了必要的支撑和铺垫。

(2) 题目:请根据你的实际情况,分别对AI意识、AI认知、AI技能、AI思维进行打分(1分为最低,5分为最高)。调查结果如图4所示。

Figure 4. AI literacy self-assessment survey results

4. AI素养自我评估问卷结果

在对学生AI素养的调查中,分别从AI意识、AI认知、AI技能、AI思维四个维度进行考量。从结果来看,学生在AI意识、AI认知、AI技能和AI思维四个维度的打分总体较高,5分为最高分。其中AI意识和AI技能的平均分达到了4.25,5分的占比达到45.83%,说明大多数人对AI技术在未来学习和职业生涯中的重要性有较强的意识。AI认知、AI技能和AI思维的平均得分也较高,分别为3.96、4.01和3.99,说明该课程在AI素养的培养方面达到了一定的效果。

在综合实践项目作品中,学生们积极将课堂所学的计算机专业知识与前沿的AI技术有机融合,充分发挥自身的创造力与实践能力,设计开发出诸多兼具创新性和高度实用性的优秀作品。如学生利用大模型技术成功生成生动形象的数字人微课,为教学资源的多元化拓展提供了新的思路与方法;还有学生借助EasyDL平台进行各类项目开发,在实践中不断深化对知识的理解与应用能力。

4. 大模型技术赋能教学的利弊分析

4.1. 显著优势

大模型技术的广泛应用,加速推动教育领域向数智化转型,为教育模式的创新和升级提供了有利条件,对于提升教学效率、开展个性化教学、促进教育资源共建共享等方面展现了显著的优势。

(1) 提升教学效率。大模型的自动化内容生成可以帮助教师迅速获取教案、讲义、多媒体资料等,丰富教学资源和形式,使其专注于教学设计、课堂互动和学生指导,提高课堂教学效率。即时反馈功能可以根据学生的学习情况和进度,帮助学生及时答疑解惑和推荐合适的学习资源,提高学生的学习效果。

(2) 开展个性化教学。大模型技术通过深度学习、预训练和适配微调技术,能够根据学生的学习进度、知识掌握程度、学习风格等个性化特征,生成定制化的学习路径和内容推荐,是实现个性化教学的有力工具。

(3) 促进教育资源共建共享。大模型技术可以将海量的学习资源进行快速整合,并提供一些资源共享平台,为学生提供优质的学习资源和服务,促进教育资源共建与共享,使得学生学习不再受时空限制,培养其自主学习能力和创新思维。

4.2. 潜在风险与挑战

尽管大模型技术为课程教学与学生学习带来了诸多的优势与便利,但也伴随着一系列潜在的风险与挑战。

(1) 数据隐私与安全问题。大模型的训练高度依赖于海量数据,教育领域的数据信息涵盖学生的个人信息、成绩等敏感信息,一旦数据遭受泄露或滥用,将对学生的隐私和权益造成严重损害。

(2) 技术依赖与能力弱化问题。教师和学生如果只是简单照搬大模型提供的生成的内容和解决方案,而不结合自身条件进行思考和二次加工处理信息,过度依赖大模型技术会导致自身思考能力退化,缺乏创新思维和探索能力。

(3) 教学评估与学术伦理问题。大模型的出现使得学生作业的真实度难以判断,增加了教学评估的难度和公平性。同时,学生依靠大模型技术造成的数据权属争议、知识产权、责任界定等问题,会破坏教育秩序和学术诚信。

5. 应对举措

面对大模型技术对课程教学带来的机遇与挑战,大学计算机通识课程教学需要采取相关的应对措施来适应人工智能时代的教学环境。

(1) 提升教师的信息素养。课程组定期开展大模型技术培训和提升数字技术综合能力培训,内容包含大模型基本原理、教学设计、场景与案例等。培训方式涵盖工作坊、在线学习、教学观摩,包括如何利用大模型技术生成教学资源、分析学生学习数据等,注重实操与反馈,使其能够高效处理学生学习数据,挖掘有价值信息用于教学决策。通过需求分析和实践培训,建立应用跨学科、不同教学场景下的案例集供教师参考,鼓励教师在教学中积极尝试。设立教学实践项目,支持教师开展基于大模型技术的教学实验,促进教学资源的共建共享,并进行效果评估,跟踪教师在实际教学中应用大模型的效果。

(2) 采用多元化的评估方式。为有效防止学生过度依赖大模型技术,课程从多个维度设计评估形式,包含过程形成性评价和终结性评价。鼓励学生对知识进行深层次的理解和应用,以更加全面地评价学生的学习成果。例如,课堂上设计开放式的问题,关注学生互动与表现,对于有独到见解、积极参与讨论、展现深度思考的同学给予平时成绩加分,以此强化过程性评估;同时,课程引入跨学科的项目式学习方式,让学生以小组形式完成综合性任务,如项目需求分析、设计方案等,考核结果采用日志记录、项目展示、答辩等过程化考核形式,同时要求小组内部进行同伴互评,既关注最终成果,也重视学生在项目中的参与度、合作能力和创新思维。

(3) 加强课程思政教育。深入挖掘与大模型技术相关的思政元素,设计思政导向的实践教学环节,如收集大模型技术在学术领域应用中出现的学术伦理问题案例,如数据侵权、抄袭大模型生成内容等典型案例,并开展案例分析与讨论活动,引导学生思考如何在大模型技术应用中遵循道德规范,提高学生辨别是非的能力,使其在未来使用大模型技术时能够自觉规避类似问题 。

6. 总结与展望

大模型是当前AI技术的核心驱动力,从技术架构到实际应用都给教育领域带来了深远影响。本文通过理论分析与实践探索,深入探讨了大模型赋能大学计算机通识课程教学的应用,分析了大模型的利弊,并提出相应的应对措施。基于大模型的辅助教学工具贯穿教学全周期,无论是课前生成定制资源与知识图谱,课中通过雨课堂AI交互增强课堂互动并即时反馈学情,还是课后分析学习数据优化教学策略,这些应用对教师教学模式和教学效果产生了意义深远的变革。课程设置的基于大模型的实验项目,可以培养学生应用大模型技术解决跨学科的实践创新能力和AI素养,激发学生对计算机科学的兴趣,引导学生利用大模型技术辅助专业学科知识的学习。

然而,随着模型规模的持续扩大和功能不断强大,也暴露出数据隐私、技术依赖、学术伦理风险等挑战,教育者需要积极应对这些风险与挑战。大模型本身的局限性(如生成内容的准确性与偏见问题)也是值得思考的问题,教师和学生在使用过程中应该保持批判性思维,避免技术依赖和滥用。未来,如何利用大模型的多模态融合技术将成为教育领域关键的研究方向。通过融合文本、图像、音频、视频等多种模态的数据,打破知识的模态界限,能够为师生提供更加丰富和直观的学习资源,构建沉浸式的学习环境,推动教育向智能化、多元化的方向发展。

基金项目

成都信息工程大学本科教学工程项目(JYJG2024065)。

NOTES

*通讯作者。

参考文献

[1] 中共中央 国务院印发《教育强国建设规划纲要(2024-2035年)》[EB/OL].
https://www.gov.cn/zhengce/202501/content_6999913.htm, 2025-01-19.
[2] 教育部部长: 将实施人工智能赋能行动, 促进智能技术与教育教学、科学研究深度融合[EB/OL].
http://www.moe.gov.cn/jyb_xwfb/xw_zt/moe_357/2024/2024_zt02/mtbd/202402/t20240202_1114004.html, 2024-02-01.
[3] 刘学博, 户保田, 陈科海, 等. 大模型关键技术与未来发展方向——从ChatGPT谈起[J]. 中国科学基金, 2023, 37(5): 758-766.
[4] 中国人工智能系列白皮书——大模型技术(2023版) [C]//中国人工智能学会. 北京: 中国人工智能学会, 2023: 13-27.
[5] Zhao, W.X., Zhou, K., Li, J., et al. (2023) A Survey of Large Language Models. arXiv: 2303.18223.
[6] Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H. and Neubig, G. (2023) Pre-Train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys, 55, 1-35.
https://doi.org/10.1145/3560815
[7] Devlin, J., Chang, M.W., Lee, K., et al. (2018) Bert: Pre-Training of Deep Bidirectional Transformers for Language Understanding. arXiv: 1810.04805.
[8] Liu, Y., Ott, M., Goyal, N., et al. (2019) Roberta: A Robustly Optimized Bert Pretraining Approach. arXiv: 1907.11692.
[9] Brown, T., Mann, B., Ryder, N., et al. (2020) Language Models Are Few-Shot Learners. Advances in Neural Information Processing Systems, 33, 1877-1901.
[10] OpenAI (2023) GPT-4 Technical Report.
https://cdn.openai.com/papers/gpt-4.pdf
[11] Touvron, H., Martin, L., Stone, K., et al. (2023) LLAMA 2: Open Foundation and Fine-Tuned Chat Models. arXiv: 2307.09288.
[12] Chowdhery, A., Narang, S., Devlin, J., et al. (2022) Palm: Scaling Language Modeling with Pathways. arXiv: 2204.02311.
[13] Raffel, C., Shazeer, N., Roberts, A., et al. (2020) Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, 21, 1-67.
[14] Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., et al. (2020) BART: Denoising Sequence-to-Sequence Pre-Training for Natural Language Generation, Translation, and Comprehension. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, 5-10 July 2020, 7871-7880.
https://doi.org/10.18653/v1/2020.acl-main.703
[15] Ouyang, L., Wu, J., Jiang, X., et al. (2022) Training Language Models to Follow Instructions with Human Feedback. Advances in Neural Information Processing Systems, 35, 27730-27744.
[16] Ding, N., Qin, Y., Yang, G., et al. (2022) Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-Trained Language Models. arXiv: 2203.06904.
[17] Hu, E.J., Shen, Y., Wallis, P., et al. (2021) Lora: Low-Rank Adaptation of Large Language Models. arXiv: 2106.09685.
[18] Ding, N., Hu, S., Zhao, W., Chen, Y., Liu, Z., Zheng, H., et al. (2022) OpenPrompt: An Open-Source Framework for Prompt-Learning. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, Dublin, 22-27 May 2022, 105-113.
https://doi.org/10.18653/v1/2022.acl-demo.10
[19] 严昊, 刘禹良, 金连文. 类ChatGPT大模型发展、应用和前景[J]. 中国图形图像学报, 2023, 28(9): 2749-2762.
[20] 王佐旭. 知识图谱和大语言模型辅助新工科课程教学资源建设方法[J]. 高等工程教育研究, 2025, 1:40-46, 110.