1. 研究背景
生成式人工智能(AIGC)技术正在深刻改变高校就业育人模式。在高校就业指导工作中,AI能够通过自然语言处理、数据挖掘和智能生成等功能,为学生提供个性化的职业规划建议、简历优化服务和模拟面试训练,大幅提升就业指导的效率和精准度[1]。浙江大学有关调查显示,50.7%的大学生使用生成式人工智能策划求职活动,43.3%借助其制作或改写简历,29%通过人机互动进行模拟面试[2],AIGC技术已深度融入高校就业指导和求职活动。
在目前高校就业指导的数智化工作中,基本可以解决“用不上”的问题,主要面临的是“用不好”的问题,其中以下4个现象比较突出,其一,人机协同关系未理清,导致学生对AI产生过度依赖现象,自主决策能力下降,教师教学影响弱化;其二,技术和伦理风险未明确,算法偏见的通病未彻底根除,数据隐私问题未引起重视;其三,人机协同的标准化机制缺位,责任边界模糊,风险防范意识不强;其四,政策法规不完善,技术赋能的育人生态尚未形成。因此,亟需引入理论框架深化分析。从人机交互(HCI)领域看,协同机制需遵循“伺服原理”——人类主导方向、机器辅助执行,确保技术服务于人的目标[3];从科技伦理视角,“负责任创新”(RRI)框架强调通过预期风险、多方协商、动态反馈实现技术应用的伦理适配,为解决现存问题提供理论支撑[4] [5]。
2. AI技术诱导高校就业指导“师–生–机”关系嬗变
数智化打破了传统高校就业指导中师生人际协作模式,重构了教师、学生、AI三者的角色定位与互动逻辑,形成了动态调整的三方协同关系[6]。在传统就业指导中,教师主要负责传递就业信息、讲解政策法规和分享求职经验,属于“信息供给方”,AIGC技术在信息供给效率上远超人工,使得教师的角色逐渐向“价值引导者”转变,但其核心地位需通过“伺服原理”实现强化:一是审核纠偏,对AI生成的就业建议进行合理性与合规性审查,降低算法偏见的误导影响(如性别、专业背景等维度的推荐偏差);二是个性化辅导,针对AI难以捕捉的深层需求提供共情式指导,如开展学生的职业价值观引导、职业心理疏导等;三是人机协同能力培养,引导学生理性善用AI工具,培养学生对AI生成内容的批判性思维,这就要求教师同时具备技术素养和职业指导的能力。
AIGC技术可以使学生获得更大的就业自主权,同时也伴随风险。学生可通过AI工具自主获取求职资源,利用AI求职工具生成简历初稿、通过AI模拟面试系统反复训练应答技巧,学生对AI工具的使用体验、对指导内容的满意度,为AI模型的迭代提供数据支撑,学生通过学习可以训练适合自己需求的AI智能体。然而部分学生因缺乏对AI算法的认识,可能盲目采信其职业测评结果,导致求职材料同质化严重,反而在求职中处于劣势。当AI工具提供的信息均不能满足师生的复杂需求时,师生双方需要用经典方法解决求职问题,此时学生的主体性和教师的主导性又发生变化,可能影响师生双方的价值判断,不利于就业指导的开展。
AIGC工具在就业指导中的位置随着技术更新而不断变化,在信息检索、格式优化、自然语言交互等功能基础上向多模态服务延伸,主动为求职者提供更加细致的服务。以近期被广泛应用的某就业APP为例,它能分析学生的专业背景、实习经历和职业偏好,生成职业画像,模拟企业HR的提问逻辑,提供沉浸式面试训练;通过追踪行业动态,实时更新求职策略建议,在深圳大学应用效果良好。但在RRI框架下,AI需限定在“辅助执行”范畴,在人机协同学习实践中,应该以学生的全面发展和智慧增长为核心[7],人应该始终处于“领航员”地位,并具备批判性思维能力[8]。
3. 高校就业指导“人机协同”机制的现存问题
技术算法的适配性差距。其一,算法偏差可能导致歧视性推荐。由于AIGC的推荐算法高度依赖训练数据集,若数据中包含基于性别、年龄或地域等的歧视性信息,可能输出带有歧视性的就业建议。系统可能因历史数据中科技行业男性占比高,而降低对女性学生的相关岗位推荐权重,严重误导学生的职业选择方向。其二,不同就业场景中的优劣差异。规则型工具(如简历模板生成)通常稳定性高,但只适合标准化任务,难以适配新兴职业需求;大模型工具(如个性化职业规划)适应性更强,可生成创新建议,但易产生“幻觉”(hallucination),虚构不存在的招聘信息,需人工审核后使用。研究指出,在涵盖健康、科学、历史等领域的300道事实性测试题中,多个热门大模型的幻觉率超过20% [9]。
数据治理面临挑战。其一,数据覆盖具有片面性。现有推荐系统过度依赖校园内部数据(如学生成绩和综合履历),而严重缺乏外部数据源(如行业动态和企业隐性需求),导致算法推荐与实际市场脱节,可能忽略新兴职业,无法反映行业需求,误导学生决策。其二,隐私保护与合规问题突出。数据收集过程中,学生心理测评和家庭背景通常无法准确脱敏,容易被滥用或泄露,侵犯个人隐私[10]。其三,“算法透明性”由于技术复杂难以实现,易导致用户“不理解AI推荐逻辑”,亟需加强推荐结果的可解释性与可追溯性,追溯算法偏差来源,形成数据治理的有效闭环。
伦理与权责存在困境。当前,AIGC技术存在消解人类主体性的风险[11],RRI框架中的“协商机制”缺失导致多重困境。其一是诚信危机,AIGC内容原创性边界模糊,“代写求职文书”等行为削弱学生的求职自主性,易使其社会信用受损。其二是教育伦理风险,AIGC技术对于数据匹配度的追求可能忽视学生职业价值观培养,以“就业率”为核心目标牺牲学生长期职业发展潜力,弱化教育属性。其三是责任推诿风险,当AI系统推荐(如建议学生转行)与人类顾问(如导师支持深造)的判断发生冲突时,缺乏权威的解决机制,责任归属不明确,必须依赖人工审查认定责任,直接增加了人工成本。
4. 基于RRI框架的人机协同机制优化路径
(一) 目标层面确立“育人为本”的协同导向
以RRI框架下“预期–反思”维度为核心,以效率为基础,以质量为核心,以育人为目标导向设定三重目标。在效率维度,AI能够快速整合海量招聘信息,自动化完成简历格式优化、岗位智能匹配等基础性工作,将就业指导教师从重复性劳动中解放出来,显著降低时间与人力成本;在质量维度,通过AI生成的数据分析报告与教师丰富的职业指导经验相结合,能够精准捕捉学生的职业兴趣、能力特长与行业需求之间的匹配点,使职业规划更具个性化与前瞻性;在育人维度,将职业价值观教育融入技术应用全过程,借助AI模拟职场情境、教师开展价值引导,培养学生的责任意识、创新精神与终身学习能力。其中,效率提升为质量优化奠定基础,质量优化又必须以育人目标为根本指引,最终实现学生“就业成功”与“人格完善”的价值追求。
(二) 操作层面构建“分工–互动–迭代”协同流程
设置差异化分工机制,明确界定教师、学生与AI的核心权责。AI作为数据处理中枢,高效承担招聘信息整合、简历诊断、面试题库生成等标准化、重复性任务,发挥快速响应与规模处理的优势;教师聚焦人文属性,负责价值引领与专业判断,如开展职业价值观教育、审查AI输出伦理合规性、开展生涯咨询及心理辅导,弥补价值判断短板。学生作为协同主体,需主动参与需求反馈与决策,对人机建议进行批判性思考并自主确定发展方向。构建“学生–AI–教师”闭环交互系统:学生输入个人信息与评估数据,AI生成初步指导方案,教师严格审核方案,补充AI难以识别的隐性需求(如职业兴趣、性格特质)。发展持续迭代机制,学生将实践体验数据反馈系统,形成数据驱动的迭代循环,打破单向指导局限,扩充新兴行业等长尾数据以提升适用性。三者协同构成有机整体,推动就业指导体系持续优化。
(三) 保障层面完善“技术–制度–文化”支撑体系
构建“技术–制度–文化”三位一体的支撑体系,确保高校就业指导中AIGC工具的有效与规范应用,明确设计原则。一是算法透明性,向师生公开岗位匹配、简历评分等核心逻辑;二是数据安全性,通过加密存储、访问控制及明确的数据全生命周期管理保障学生信息安全;三是功能可控性,设置人工干预接口,赋予教师修正与锁定AI输出的权限。建立明确的技术准入门槛,全面审查供应商资质与技术合规性。高校应根据现实情况出台管理办法,厘清权责边界、数据使用规范及违规惩处措施,设置数字化教学评价指标,鼓励教师积极引入新的教学技术。营造健康的文化氛围,教师通过培训破除本领恐慌,明确引导者角色定位;面向学生剖析因数据依赖导致的求职失败案例,引导学生形成主体意识;教学管理部门构建涵盖育人成效、学生满意度等多维评价体系,始终坚守就业指导的教育初心。
5. 划定人机协同就业指导“育人红线”
(一) 健全政策法规,明确技术责任边界
在《生成式人工智能服务管理暂行办法》等现有法规基础上,高校需针对就业指导工作出台意见法规,明确AI工具的责任边界。一是要明确AI工具的服务范围,禁止其提供“包就业”“岗位承诺”等虚假服务,同时严控大数据的去向,限定就业信息仅用于指导而非商业用途,并建立技术供应商的连带责任制度,防止算法偏见或数据泄露造成学生权益受损。二是建立AIGC就业指导工具的“白名单”制度,仅允许通过安全与伦理审核的工具进入校园,设立由教师、学生、技术专家和法律人士组成的伦理委员会,负责监督技术应用、处理投诉纠纷,将AI应用纳入就业指导质量评估体系,定期开展评估审查。
(二) 规范教学伦理,坚守就业育人属性
规范AIGC技术在高校就业指导中的应用,需坚守育人属性,确立并践行一系列伦理原则。要求AI工具的训练数据涵盖不同性别、专业、学历背景的案例,避免推荐偏见,教师需主动修正AI输出的不合理内容;贯彻诚信性原则,明确AI生成内容的使用规范,禁止学生提交完全由AI生成的求职材料,引导学生标注AI参与部分。强调主体性原则,突出学生在职业决策中的核心地位。落实保护性原则,对学生的心理隐私权益进行脱敏处理,AI模拟面试需规避侮辱性、歧视性问题,个人数据需加密存储。在伦理教育层面,需将AI技术伦理纳入新入职教师职业培训,在大学生就业指导课程中增设相关章节,通过情景模拟培养学生自主意识。
(三) 加强监督评估,动态优化评估体系
为保障AIGC技术在高校就业指导中的有效应用,应建立多方评估机制并动态调整规范体系。定期开展学生满意度调查,收集其对AI工具与教师指导的评价;组织企业HR反馈,评估AI辅助下毕业生的岗位适配度;由伦理委员会审查技术应用的合法性,重点聚焦在算法透明度与数据安全方面。根据技术发展和实践反馈,每1~2年评估、修订一次政策法规与伦理原则,应对AIGC生成虚拟实习经历、面试伦理、数据偏见等潜在问题,确保规范的时效性、适配性。
6. 结语
在融合AIGC技术的高校就业指导场景中,教师、学生、AI三方关系始终随人类的需求而变化。在技术应用方面,算法瓶颈、数据安全、伦理权责方面问题突出,应持续构建完善“目标–操作–保障”三维协同的机制理念,并配套构建政策伦理规范体系。但当前研究未纳入地方院校与重点高校的差异分析,且机制有效性缺乏长期追踪。未来可探索“学科差异下的人机协同模式”、“学生职业决策自主性的长期影响研究”等方向。唯有坚守“人类主导、技术可控、育人为本、伦理先行”原则,才能构建健康的人机协同生态,推动就业指导从“效率提升”向“育人实效”跨越。实现技术赋能与人文关怀的有机统一,推动毕业生高质量充分就业。
基金项目
高校毕业生就业协会“2025年高等学校教育数字化转型研究”专项课题“AIGC技术赋能高校毕业生就业指导路径探索与实践”(GJX25Z2141)“新能源类专业个性化生涯教育与智能就业指导数字化转型研究”(GJX25Z2142)、湖北省教育厅哲学社会科学研究专项任务项目“中华优秀传统文化融入大学生生涯教育内容体系研究”(24Z231)的研究成果。
NOTES
*第一作者。
#通讯作者。