1. 引言
随着生成式人工智能技术的不断发展,教育领域的教育信息化也迎来了前所未有的变革,在党的二十届三中全会中针对教育表述到,将“大力推进智慧校园建设,探索大规模个性化教学,打造中国版人工智能教育大模型”。国家强调要推进云计算、大数据、人工智能、区块链等现代信息技术与教育的深度融合[1]。在生成式人工智能的快速发展的基础上,其强大的自然语言生成技术、图像生成技术以及视频生成能力,将对中小学教师基于课程资源开发的路径上提供新思路。而微课视频作为一种简洁精炼、内容充实、聚焦于特定知识点上的教学资源形式,在教育信息化时代被广泛地运用于教师课堂教学与学生自主接受学习之中。基于传统的中小学微课视频制作过程中,普遍存在着制作周期长,创意思路局限化等诸多问题,阻碍中小学教师在优质教学资源上的传播与共享。而生成式人工智能的引入为中小学教师在微课视频设计与制作上提供了革命性的解决办法,基于生成式人工智能的特点,AI不仅能够自动生成文本脚本、图片和多媒体素材,也能够发挥其高交互性特征,优化教学内容与课程多样化表现形式。现阶段,人工智能利用其大数据分析与机器学习技术,可以深入分析研究学生的兴趣、习惯、能力。为不同性格、水平的学生提供定制化教学服务,满足学生的需要;针对中小学教师,人工智能帮助教师完成其部分备课任务,提高教师在上课过程中的教学效率与质量,增进课堂气氛,调动学生积极性。
2. 中小学微课视频所面临的“瓶颈”与“新机遇”
微课(Mirco-lecture)起初在2008年由美国高级教学设计师David Penrose所提出。他对微课的制作流程提出了五步骤:首先教学核心概念;再提出10~15秒的教学背景介绍;再录制3分钟内的视频;创设学生课后作业任务;上传视频到教学视频平台。而我国在2010年基于现在教育资源利用率较低的情况,胡铁生在国内首次提出了微课的概念,将微课的发展分为三个阶段:“微资源构成”认识与实践阶段;“微教学活动”认识与实践阶段;“微网络课程”认识阶段[2]。目前中小学微课已进入“精准化、个性化”的需求阶段。同时,微课的核心资源就是“微视频”,在中小学教师进行微课设计的时候,如何制作一个质量高的“微视频”尤为重要。
当前我国微课视频制作仍存在着录制场景单一,无法激起学生的兴趣;操作复杂,后期工作繁冗;教师计算机水平差异明显,对教师的计算机能力没有具体的评判标注;制作流程复杂、花费高等问题[3]其微课视频的设计内容已很难满足中共中央、国务院印发《教育强国建设规划纲要(2024~2035年)》中提到的个性化学习路径设计。上述存在的问题现象也导致了当前微课视频资源同质化严重,无法满足面对不同水平层次的中小学生的教学需求。
在教育部《教育信息化2.0行动计划》中明确指出我国当前的教育需要“发展智能教育”,但中小学领域中的AIGC应用研究仅仅只占了6.3% (2024)。为了满足学生个性化需求,帮助学生在学习与发展的过程中更好地理解与领悟知识,借助AIGC技术,可帮助中小学教师实现微课视频资源素材自动化生成,通过生成式人工智能生成视频所需要的文案、场景设计、图画、音视频、3D模型、动画等素材,通过教师人像生成虚拟数字人,并识别教师声音,自动添加字幕。
个性化学习作为基础教育领域中一个重要的研究方向,中小学教师微课视频制作中也需要考虑到个性化教学。基于各学科的培养目标与课程标准,如果只是单纯满足学生的偏好难以完成教学目标,因而在微课视频制作中需要分析学生的偏好、准备多样化的学习材料以及多目标约束实现全面教学目标达成[4]。生成式人工智能能基于教师的要求辅助中小学微课视频制作,相较于传统微课视频制作流程,生成式人工智能在个性化微课视频制作中有以下优势:
2.1. 教学资源的智能生成与个性优化
教师可根据课程内容的需求,基于自然语言提示词向AI提供需求,AI可根据教师所给的要求,帮助教师生成在制作视频演示课件之中所需要的文案脚本、图片、流程图、演示动画等。中小学教师在传统微课制作的过程中,往往会面临素材收集困难、视频制作繁琐、后期合成碰壁等问题。在微课视频制作中,生成式人工智能辅助微课视频文本与文案组织、创作微课素材、制作微课音频、视频。减少教师在制作微课视频过程中的工作量,增高制作效率。
2.2. AIGC驱动的教学设计个性化与学习者分析个性化
教师上传自己的教学设计,AI在分析教师教学设计后根据教师自身的风格,定制微课视频文案,减少“线上 + 线下”教学之间的割裂感。教师也可利用AI生成学习者模型,学习者模型依据学习者知识技能、认知行为、情感体验等学习者特征进行描述、分析和构建数字模型,学习者模型维度与物理学习者维度相对应,以此向学习者提供个性化的学习路径与方法[5]。对学习者进行分析,基于用户的偏好生成视频,以满足学生学习的要求。教师可根据中小学生性格进行分析,通过AIGC工具,如MidJourney图像生成工具、Descript语音生成工具分别将同一知识点针对视觉型学生、听觉型学生与动手型学生制作不同类型的微课视频,以帮助学生理解与接受新知识。
2.3. 多模态资源智能整合与创新
多模态资源整合指的是将教师所准备的文本、图片、音频、视频、动画演示、交互插件等多种媒介形式的教学资源内容进行整合。通过AIGC可以辅助不同类型的资源内容在微课视频中的逻辑顺序与情感表达是一致的。AIGC可以辅助教师将多模态资源整合降低知识抽象程度的同时,也确保知识逻辑与情感表达一致。定制数字人技术可以帮助教师在微课视频制作过程中使中小学课堂更加生动活泼,避免学生在观看的过程中产生不真切的感觉。教师在微课结束时,可以通过AIGC生成知识图谱,将微课视频中教授的内容结构化,助于学生理解框架结构,避免知识零散化,同时也能减轻教师压力。多模态资源智能整合打破了传统微课制作的线性规律,搭建出“感知–交互–反馈”三位一体的新模式。避免教师在制作过程中重复利用互联网现在的陈旧资源,有更多个性化微课资源生成路径。
3. 基于生成式人工智能的个性化微课视频创作
生成式人工智能通过自动化生成内容帮助教师实现个性化资源生成、整合。相较于传统微课制作方式更加具有效率。
3.1. 教学资源的智能生成与个性优化
3.1.1. 辅助文本资源创作
生成式人工智能的大语言模型根据其自然语言处理(NLP)的技术辅助教师的教学文本自动化生成,教师根据生成式人工智能所给出的语言文本进行人工干预,选取教师所需求的内容。其适应场景为教师的教案编写、知识点总结、提出教学案例场景等。辅助文本资源创作分成两个部分,首先是基础脚本生成,中小学教师可根据自身的教学年级,确定一节微课的知识类型与认知层级,例如:在小学阶段中,微课主题是“scratch角色控制”,生成式人工智能则可辅助教师生成“编程猫”角色对话脚本;在高中阶段“周而复始的循环”则可利用生成式人工智能生成代码,教师可在视频中演示。教师通过提示词,添加约束条件,要求结构化输出,这里以“豆包”为例,帮助教师生成一节中学Python循环微课脚本(如图1)。
Figure 1. AIGC aids teachers in text resource creation
图1. AIGC辅助教师文本资源创作
3.1.2. 定制化图片资源创作
中小学教师在微课视频中往往需要新颖并与教授内容相关联的图片素材,不具备美术基础的教师往往在制作传统微课视频的过程中会在网上搜索资源,并将资源下载拼接于视频之中。这种方式通常会费时费力,影响教师制作微课的效率,同时,教师基于网上搜索的素材可能会存在与教学内容风格割裂、素材分辨率低等问题。在图像方面,AIGC已发展出多种先进的模型和工具,它们不仅具备强大的图像生成能力,还在多个应用场景中展现出卓越的性能。中小学教师可借助AIGC工具,生成与课程内容有关的图片素材。小学教师教授的对象为低龄学生,可以对AIGC提供指令生成与课程内容相关的并富有情绪的动画图片;中学教师则可给予指令,生成关联性强,与课程内容相符合的知识性图片(如代码具象化演示图片)。以“文心一言”的智慧绘图为例,教师选取人教版小学信息技术三年级上册《第3单元 认识计算机》,教师旨在向同学展现形象化的计算机内部结构卡通图解,向AIGC给予提示词,文心一言根据教师提示词生成图片内容(如图2)。教师可将AIGC生成的图片放置在微课视频中,点缀视频内容,并使同学通过图像化的内容理解文本内容。
Figure 2. AIGC assisted teacher image generation
图2. AIGC辅助教师图片生成
3.1.3. 音频智能创作
研究证明,在微课的导入阶段,通过背景音乐的引入可营造沉浸式的气氛,使学生快速进入学习状态。例如《数据图像处理》微课使用电子合成音乐模拟图像处理过程,使较为抽象的概念具象化。AIGC在动画制作的过程中,可以突破传统音效库的限制,实现动画与场景声音相结合,增强视频交互反馈,例如在初中物理的“金属钠与水反应”中,AIGC生成纳在水中的气泡破裂、嘶鸣声强度渐变的音效,增强视频中动画实验的拟真度。小学语文微课可向AIGC工具输入“大漠孤烟直,长河落日圆”,生成远疆驼铃与风声的环境音,增进学生意境的理解,产生情感共鸣。在英语微课中,教师通过AI配音生成英文配音,增强视频通读性。以Suno音乐生成工具为例(如图3),在提示词框输入“生成一个关于‘飞流直下三千尺,疑似银河落九天’这首古诗意境的BGM”,点击“instrumental”,通过3.5模型,即可生成一个“飞流直下”的BGM,符合诗句的意境,提升微课视频中教师朗读时的沉浸感。
3.1.4. 数字视频创作
AIGC通过物理引擎仿真技术与动态生成技术,解决了传统实验动画制作周期长、技术要求高、成本高等特点,帮助中小学教师生成视频、动画、GIF动图运用于微课视频中。借助AIGC生成动画视频的能力,教师将微课文本内容转换为动态视频,从抽象知识到可视化呈现。例如小学数学中《圆周率》微课视频制作过程中,可生成随机跳动的数字符号,将知识点赋予动态元素。制作《江南春》微课时,输入诗句“千里莺啼绿映红”,AI生成动态江南水乡背景:烟雨中的柳枝飘动、屋檐滴水涟漪、远处若隐若现的牧童骑牛动画。以“Sora”视频生成工具为例,通过输入关键词“我在制作一个小学语文微课,需要生成一个动态江南水乡背景:烟雨中的柳枝飘动、屋檐滴水涟漪、远处若隐若现”,即可生成视频(如图4),为语文微课提供意境支持,匹配教师古诗朗诵情感。
Figure 3. Using Suno to generate music for Chinese texts
图3. 使用Suno生成语文课文音乐
Figure 4. Using Sora to generate background videos for micro-lessons
图4. 使用Sora生成微课背景视频
3.2. AIGC驱动的教学设计个性化与学习者分析个性化
3.2.1. 教师教学设计个性化
迪克凯瑞模型与ADDIE模型(分析、设计、开发、实施、评估)被广泛运用于结构化的教学设计中[6]中小学教师在制作微课视频的过程中可利用AIGC分析解读自己制作的教学设计文档,提取教师在撰写教学生设计过程中的教学风格,根据教学目标、知识点结构、教学策略等方式,辅助教师生成微课视频教学设计,编排好视频内容结构,个性化定制微课教学设计。
AIGC可以依托教学目标与教学任务的复杂度自动匹配微课结构范式,例如对于概念讲解性质的微课,AIGC会向教师推荐“情境导入–多维阐释–案例辨析–迁移应用”四段式结构,并以四段式结构为依据向教师提供教学策略与设计思路,根据布鲁姆目标分类理论,提供知识图谱模型,并结合教师的审美风格提供微课视频幻灯片的配色方案。针对个性化文本文案设计,教师可利于语言模型(如文心一言、豆包等中文生成式语言工具)构建专属教师专属语言模型,创建智能体采集教师授课语言数据,结合其语调与语气词使用规律,在脚本生成的过程中,AIGC会根据教学内容情感维度调整教师微课视频脚本内容,有效地增强了学生的认知沉浸感。
同时,AIGC赋能教学资源适配,AIGC可将教师所要讲授的微课与相关教材、题库、多媒体资源库关联,整合生成符合教师风格的教学案例素材。AIGC也可通过自然语言处理技术,学习教师的语言表达习惯,在辅助教师生成视频脚本时,确保语言习惯一致,使整个视频课程保持风格一致。
3.2.2. 学习者个性分析个性化
研究表示,通过知识模型、技能模型、工作记忆模型、智力模型、性能模型、心理模型、认知模型以及情感模型8个模块,可从认知层、行为层、情感层三个层次分析学习者个性[7]。教师可根据学生的个性归纳为视觉型、听觉型与动觉型三种,通过AIGC生成VARK问卷(Visual, Aural, Read/Write, Kinesthetic)提交给预授课对象,让学生勾选偏好的学习方式,并结合课堂中学生与教师的交互行为分析,将线下课堂中的学生进行偏好分类,依据分类根据班级学生的喜好生成不同类型微课视频。
视觉型微课可偏重于图表、色彩标记、空间信息组织,AI可生成知识点插图、演示模型。在微课设计的过程中比较偏重图表、空间信息等元素。AIGC利用其强大的生成能力,以直观的图像信息向学生展示图形化的抽象知识,帮助学生理解空间结构与动态过程。例如,在讲解三视图的过程中,AIGC可根据图片生成正视图、侧视图与上视图,直观的向学生展示不同角度的图像。
听觉型微课可依赖语调的变化与音频的运用强调记忆,可AI合成语音并对音频进行优化。根据知识点的重要性来提示教师的语调变化。同时,分析视频脚本流程,在合适的地方创建节点添加背景音乐或音效,增强学习的氛围与记忆效果。例如,在英语微课视频中,对重要的单词,提示教师增高音调以配合学生更好记忆单词。
动觉型微课需通过实验动画向学生演示操作步骤,实现虚拟实验设计与生成虚拟操作场景(学生可在微课视频中点击按钮,AI实时反馈)。例如,在物理微课视频中插入跳转按钮,同学可以在微课平台中进行模拟实验。
中小学教师也可追踪学生观看微课后的操作记录(如在视觉型微课中某动画的重复次数,动觉型微课交互错误率)及时分析学生的薄弱点与对知识点难以理解之处,利用AIGC生成学习反馈报告,报告中包含学生在各个知识点的学习情况、操作记录分析、薄弱环节提示等内容,为教师提供学生知识学习的全面数据。为教师提供学生知识学习的数据,帮助教师完善自己的课程设计与教学安排,优化视频,逐步提高微课视频质量并让教师理解不足与改进之处。
在学习评价层面,AIGC可构建多维评价模型。例如,通过分析学生在动觉型微课中的虚拟实验操作轨迹,自动生成“操作熟练度–逻辑漏洞–优化建议”的个性化报告;结合知识图谱分析,标注学生“函数图像绘制”等薄弱环节,并推送针对性巩固微课,形成“学习–评价–强化”的闭环。
3.3. 多模态资源智能整合与创新
中小学教师在收集并创建完微课资源与素材后,可利用AIGC进行多模态整合。将文本、图片、音频、视频、动画演示及交互插件等多元媒介形式的教学资源进行系统性重组,以达到不同模态的资源能在一堂完整的微课中形成协同效应,AIGC提示教师不同资源排列是否得当。例如。初中历史微课中,自动将鸦片战争时期的图片、文字、纪录片按照“背景–经过–影响”的逻辑顺序进行编排,满足情感需求,确保从屈辱到抗争的过程是逐步递进的,避免情感断层。同时,区别于传统授课的单一性与固定化,AIGC赋能的微课视频也能有以下创新之处:
3.3.1. 自动生成微课视频字幕
基于语音识别与自然语言处理技术,微课视频可借助AI字幕生成系统自动生成语音字幕。传统课堂中中小学教师可能因为其语速、音调、口音等因素,有些学生会错过课程中的关键知识点。微课视频可结合自动生成字幕技术,向学生提供实时的语言文本信息,以“剪映”为例,在编辑界面,上传视频后。使用“智能字幕”功能,软件会自动与视频时间轴对齐字幕,并且支持教师在字幕轴上一键修改错别字。
3.3.2. 数字人教师场景化创新
AIGC时代的数字人不仅是一种新型的教育工具,更是学习理念与人机关系重构的催化剂——学习并非孤立的认知行为,而是在人、机、环境协同演化的动态实践中,基于能力本位理念塑造“完整的人”的过程[8]。传统无教师出场的微课通过静态PPT与动画讲解缺乏情感传递的媒介,数字人教师可以通过眨眼频率(每15秒1次)、头部动作(重点知识点点头)等微表情,强化微课中的重点。以“有言”平台为例,教师选择与教学风格匹配的基础形象(或上传自己照片生成专属数字人),系统将根据微课脚本内容自动匹配面部表情与手势动作。点击生成后,系统将在10分钟内完成渲染,教师可以通过调整镜头来确保学生的关注点聚焦于内容中。AIGC可基于学生实时学习数据(如微课观看时长、交互错误率、知识点测试结果)生成动态调整策略。例如,当系统检测到某班级50%以上学生在“圆周率计算”微课中重复观看“公式推导”片段超3次时,自动触发AIGC生成该知识点的动画拆解版微课,并推送给学生;同时提示教师在后续课堂中增加实操练习环节。
3.3.3. AIGC知识图谱的创建
在微课视频中教学内容结束时,AIGC可自动生成动态的知识图谱。以高中信息技术编程微课为例,教师在学习通系统的微课会将变量定义文本、函数调用动画、运行结果视频等资源,转化为“数据类型–操作符–控制结构”的图谱节点。学生根据交互式的知识图谱可直观了解到知识的整体脉络,教师也可根据聚类分析找到学生的知识薄弱之处,起到“教学–反馈”闭环优化。
4. AIGC赋能中小学微课视频个性化创新的优势与挑战
传统微课依赖教师手工处理素材内容,采取线性剪辑的方式,后期调试复杂。教师的主观意识较为浓厚,往往忽视了学生的兴趣与能力;内容标准化程度高,通常一个知识点仅采用1~2种方式呈现,难以满足学习者差异化的需求;在教师的个性化需求上,局限于资源库的内容,教师素材重复率高,知识更新迭代速度较慢,内容雷同度高。基于AIGC赋能微课视频个性化创新,在教学资源上,通过自然语言指令驱动多模态生成工具,实现教学资源“个性化 + 自动化”,不仅大大提高了教师的制作效率,还满足教师个性需求。AIGC也能分析教师的教学设计,模仿教师授课风格,辅助教师完成微课视频脚本设计。根据不同年级阶段的学生,AIGC能够提示教师采取不同的教学风格进行,精准化学习者画像,针对不同取向的学生,采取适合的教学策略与教学模式,增强学生学习的动机。AIGC也能帮助中小学教师资源创新性与多样性发展,整合教师自己的教学资源库,结合多平台素材,辅助教师搭建自己的教学数据库,并且结合知识图谱生成动态案例库,了解微课视频的不足与学生薄弱点,提升微课视频质量。
同时,AIGC技术也存在局限性。AIGC生成的脚本文案可能会存在教育温度缺失的困境,文科性质的微课利用AIGC技术虽逻辑严密,但缺乏情感共鸣,仍需教师自我润色,提升个性化教育环节。复杂知识准确性也有待提升,AIGC对于公式的演示会存在跳跃步骤的问题,需要教师仔细检查,根据学生水平来制定演示的深度。并且,中小学教师也会存在硬件缺乏的问题,有些AI模型需要本地硬件支持,乡村学校可能会存在硬件不足而无法使用的问题。并且学生在使用AIGC生成的微课过程中,其观看行为、学习偏好等数据可能被过度采集。
总之,通过上述创新,生成式AI正在重构微课视频的生产范式。AI不仅让微课制作从“技术活”变成“设计活”,更重要的是让教师得以聚焦教学创意本身。这一转型将推动基础教育从“标准化输出”向“精准化赋能”的深刻变革。