生成式人工智能教育应用的伦理风险及法治规避路径
Ethical Risk and Legal Circumvent Path of Generative Artificial Intelligence Education Application
DOI: 10.12677/OJLS.2023.116917, PDF, HTML, XML, 下载: 202  浏览: 417 
作者: 唐 赫:江苏大学教师教育学院,江苏 镇江
关键词: 生成式人工智能伦理风险法治规避Generative Artificial Intelligence Ethical Risk Circumvention of Rule of Law
摘要: 生成式人工智能技术在教育领域的应用不断重塑教育新生态,创新学生个性化学习方式,实现智慧型教育评价,搭建情景化教育场域。然而,生成式人工智能在赋能教育的同时,也引发了一系列潜在伦理风险与挑战,如消解教育主体性地位、疏离教育主体情感、拉大教育鸿沟进而加剧教育不公平现象以及侵犯教育主体隐私权等。因此,为防范和规避这些伦理风险,要采取“以人为本”的法治理念、强化对算法伦理的法治监管、以立法保护教育主体数据隐私权、建立多元长效的法治治理体系等法治规避路径,以确保生成式人工智能在教育领域的健康、安全和可持续发展。
Abstract: The application of generative artificial intelligence technology in the field of education continues to reshape the new ecology of education, innovate students’ personalized learning methods, realize intelligent education evaluation, and build a situational education field. However, while enabling education, generative artificial intelligence also causes a series of potential ethical risks and challenges, such as dispelling the subjective status of education, alienating the emotions of education subjects, widening the educational gap and thus aggravating the inequity of education and infringing on the privacy of education subjects. Therefore, in order to prevent and avoid these ethical risks, it is necessary to adopt the rule of law concept of “people-oriented”, strengthen the rule of law supervision of algorithm ethics, protect the data privacy of education subjects by legislation, and establish a multi-long-term rule of law governance system to avoid the rule of law, so as to ensure the healthy, safe and sustainable development of generative artificial intelligence in the field of education.
文章引用:唐赫. 生成式人工智能教育应用的伦理风险及法治规避路径[J]. 法学, 2023, 11(6): 6390-6395. https://doi.org/10.12677/OJLS.2023.116917

1. 引言

近年来,随着大数据、互联网、云计算等智能技术的迭代升级,算法由理论走向实际应用,以ChatGPT (Chat Generative Pre-trained Transformer)为典型代表的生成式人工智能应运而生,在教育、医疗等领域产生深远影响。生成式人工智能在丰富教育场景,拓宽教育边界,提供个性化学习的同时,也为教育领域带来了潜在的伦理风险,如削弱教育主体性,泄露数据信息,加大数字鸿沟等,压制了教育的正向价值。因此,本文在对生成式人工智能教育应用的价值分析基础之上,探讨其存在的潜在伦理风险,提出针对性法治规避路径,助力生成式人工智能在教育领域的合理化应用。

2. 生成式人工智能教育应用的价值

2.1. 创新个性化学习方式

生成式人工智能在加速教育创新,重塑未来教育新生态方面发挥着巨大的作用 [1] 。个性化学习方式是生成式人工智能教育应用的核心价值之一。传统教育模式通常是一种“一尺高挖一尺深”的教学方式,而每位学生的学习速度、兴趣和需求都有所不同。生成式人工智能通过分析学生的学习数据和行为,能够为每个学生提供个性化的学习路径和资源。这意味着学生可以根据自己的学习进度和需求,按照自己的节奏学习,不再受制于“一刀切”的教学模式。生成式人工智能可以分析学生的兴趣爱好和学科倾向,为他们推荐相关的学习材料和课程,从而激发学习兴趣,提高学习的积极性。例如,如果一个学生对数学感兴趣,而对历史不感兴趣,生成式人工智能可以优先推荐数学相关的学习内容,以满足学生的需求。此外,生成式人工智能还可以识别学生的学习障碍和弱点,并提供有针对性的辅导和支持。通过分析学生的错题和错误答案,系统可以帮助学生找到并弥补他们的知识漏洞,从而提高他们的学术成绩。这种个性化的学习方式可以帮助每个学生发挥潜力,实现更好的学习效果。

2.2. 实现智慧型教育评价

生成式人工智能还可以实现智慧型的教育评价,这是其在教育领域的另一项重要价值。传统的教育评价通常是基于标准化的考试和测验,忽视了学生的个性差异和综合素养。生成式人工智能可以通过持续监测学生的学习进展,收集大量的学习数据,并利用机器学习算法来评估学生的知识水平、技能掌握和学习能力。这种智慧型的教育评价可以更全面地了解学生的学习情况,不仅包括传统的学科知识,还包括学生的创造力、批判性思维、沟通能力等综合素养。生成式人工智能可以分析学生的学习数据,生成个性化的评价报告,帮助教师和学生更好地了解学习进展,制定适合的学习计划和目标。此外,智慧型的教育评价还可以为教育政策制定者提供有价值的数据和见解。通过分析大规模的学习数据,政策制定者可以了解教育体系的强项和短板,优化教学资源分配,提高教育质量。生成式人工智能的教育评价可以有效地推动教育领域变革。

2.3. 搭建情景化教学场域

生成式人工智能还有助于创造情景化的教学场域,提高学习的体验感。传统的课堂教学容易造成理论知识与实践应用脱节。生成式人工智能可以通过虚拟实验、模拟情景和沉浸式体验来创造情景化的学习环境。例如,学生可以通过虚拟实验室进行科学实验,模拟真实世界的情境来学习历史和社会科学。情景化教学场域可以增强学生的学习体验和理解能力。学生通过亲身体验和参与感受到学习的乐趣和挑战,更容易理解抽象概念和理论知识。生成式人工智能可以根据学生的学习进度和能力水平,调整情景化教学场域的难度和复杂度,以确保每个学生都能够获得有意义的学习体验。

3. 生成式人工智能教育应用的伦理风险

教育领域的技术赋能或将对教育决策、教学应用及教育环境等方面产生影响,从而催生教育变革 [2] 。生成式人工智能在不断更新重构教育生态系统的同时,也解构现有教育体系,引发学术界对人工智能教育伦理的泛化研究。目前已有学者从政策、学术和现实等综合视域下剖析人工智能应用的伦理问题,深入反思智能技术赋能教育领域带来的风险与挑战 [3] 。本研究认为生成式人工智能作为技术伦理与教育伦理的结合体,应从“人之为人”的本质出发,以生成式人工智能与教育主体的关系为出发点和考察点,探究生成式人工智能赋能教育领域而产生的消解教育主体性地位、疏离教育主体情感、拉大教育鸿沟进而加剧教育不公平现象以及侵犯教育主体隐私权等负向伦理风险。

3.1. 技术至上消解教育主体性地位

与传统的信息技术相比,GPT等生成式人工智能嵌入教育生态并不是温和的和渐进的,而是粗暴的和直接的,将教育生态系统的复杂性和混沌性提升若干个量级 [4] 。人工智能技术由教育场域外的技术性工具嵌入到教育生态系统的全方位、多层次,技术至上的观念正在消解教育主体性地位,具体表现为教师教育主体性淡化以及学生学习主体地位淡化。首先,教师教育主体性淡化,甚至在某些特殊情景化教学中丧失主体地位。教师利用生成式人工智能搜索文本资料或音像资料,整合成教学所需的课件和教案,虽在一定程度上节约教师的备课时间,但人工智能生成的文本大多存在模式化问题,教师若过度依赖智能手段,会逐步丧失主动思考的能力,消弭教师在教育实践中的主体性地位,沦为技术工具人。其次,学生学习主体地位淡化。学生的主体性主要表现为在教师的指导下主动参与教育过程,而ChatGPT等生成式人工智能有强大的数据采集和整合能力,可以快速为学生提供精准的答案,弱化学生知识建构的主动性和探索知识的好奇心,长期以往会助长学生学习的惰性思维,陷入“技术至上”的误区,对生成式智能技术的过度依赖导致学生丧失自主意识,学习主体性地位逐步被智能技术瓦解,学生由知识的探索者被形塑和异化为无意识的“工具人”。

3.2. 人机互动疏离教育主体情感

教育是培养人的社会活动,主体之间存在交互的过程 [5] 。知识的传递不是教师向学生单向传输的过程,而是教育教学过程中师生互动的结果,在互动的过程中师生之间会产生情感体验和共鸣。而ChatGPT等生成式人工智能嵌入教学生态系统会消解人与人之间的互动交流,造成师生之间情感的淡漠与疏离。生成式人工智能参与教学过程,会倒逼教师将更多的教学时间交给机器,师生之间的互动由“师–生对话”异化为“生–机对话”和“师–机对话”。学生依赖生成式人工智能指导,虽在一定程度上减轻教师负担,但长久来看,知识传递方式由传统的师生之间的主体交互演化为“生–机对话”,新知识的学习、疑难问题的解答均可以由智能机器人代替,导致学生与生成式人工智能技术之间的情感链接加深,大幅度减少师生之间的互动交流,遮蔽师生情感,从而弱化教育主体之间的情感体验和情感共鸣。最终,教育教学过程中的师生情感互动被生成式人工智能技术阻隔,教育中特有的人文关怀和具身体验难以通过师生之间的情感互动传递,师生关系异化为教师与机器、学生与机器之间的无意识单向知识交流,加剧教育主体之间的情感淡漠。

3.3. 数字鸿沟加剧既有教育不公平

数字鸿沟是信息富有者和信息贫穷者之间的鸿沟,是不同人群由于地域、教育水平和种族的不同而造成对数字化技术的掌握程度不同,从而造成的在社会中的待遇、经济地位的差异 [6] 。数字鸿沟关系着教育公平,生成式人工智能在教育领域的应用会大幅度改变现有教育资源的分配状况,让教育不公平现象进一步显现。虽然大数据、互联网、云计算等智能技术在教育中的应用使得贫困地区的孩子接受教育成为可能,通过异步课堂可以实现同步上课,但优质数字化资源、虚拟结合的数字化教学场景、数字化师资力量以及数字化覆盖程度仍存在地区、种族差异。具体表现为一是教育资源贫富地区分布不均匀,在生成式人工智能技术发达地区,学生可以借助技术的可获得性,获取所需的学习资源,满足学习需求,而在智能技术贫乏地区的学生难以随时随地的获取教育资源。二是算法歧视加剧教育不公平,ChatGPT等生成式人工智能的本质是算法运行,算法本身不存在歧视与偏见,但其背后的开发者和设计者不可避免的存在文化偏见,缺乏对弱势群体的包容性,进一步拉大既有教育不公平。

3.4. 侵犯教育主体数据隐私权

生成式人工智能在教育领域的应用对教育主体的数据安全和隐私带来冲突。譬如ChatGPT可以帮助学生搜索上课所需资源、完成课后作业,甚至可以生成论文大纲,撰写论文,然而在应用生成式人工智能辅助学习的同学,有部分学生对数据使用的伦理边界不清,将论文或科研数据上传至数据库,容易导致数据泄露。生成式人工智能算法运行依赖的是大量数据,在采集数据的时候可能包含一些用户的个人隐私信息,如果这些信息被泄露或者盗取,会对用户造成不可估量的损失,甚至会引起知识产权纠纷问题。此外,教育数字化转型使得绝大多数学校在教学场所安装360˚无死角摄像头,对师生教学过程进行全方位监督,虽然出发点是为了对师生教学进行监督,提高教师教学质量和学生学习效果,但在具体实践过程中,若将教育教学过程中的视频发布到网络上,容易侵犯教育主体的隐私权。

4. 生成式人工智能教育应用的法治规避路径

生成式人工智能在教育领域的应用对教育主体的主体性、师生教育情感、教育公平和教育主体隐私权等各个方面带来了不可预估的风险和挑战。为确保生成式人工智能教育应用的伦理风险最小化,必须以法治思维和法治手段最大限度地加以应对,通过树立正确的法治理念,强化法治监管,建立法治治理体系等路径,确保生成式人工智能在教育领域的健康、安全和可持续发展。

4.1. 树立“以人为本”的法治理念

理念是人的思想、思维的结果,是理性化的思维活动模式、看法或见解 [7] 。教育是以人的发展为中心,关注人发展的未来性、生命性和社会性,这是构建教育伦理的基本价值观念和基本原则 [8] 。若想有效规避生成式人工智能对教育主体造成的潜在风险,需要树立“以人为本”的法治理念,以确保教育主体性地位的回归。首先,生成式人工智能技术不能违背“人之为人”的本性,科技发展要坚持以人为本,贯彻以人为中心的治理理念,将泄露个人数据隐私的行为严惩。其次,在生成式人工智能研发过程中,研发主体要以尊重和保障人权为指导理念,使得生成式人工智能在教育领域的应用符合伦理规范。最后,要积极向教育主体宣传“以人为本”的治理理念,普及生成式人工智能使用规范和法律常识,提高对弱势群体的包容性,从而缩小“数字鸿沟”。避免教育迷失在技术的浪潮之中,树立“以人为本”的治理理念来推进生成式人工智能在教育领域的应用,是智能技术赋能教育创新的必然追求。

4.2. 强化对算法伦理的法治监管

“算法黑箱”、“算法垄断”等现象的频繁出现,是导致社会民众对人工智能技术恐慌的一个重要原因。亟需加强对算法运行操作的法治监管,消除“算法歧视”、破解“算法黑箱”、打破“算法垄断”才能真正确保生成式人工智能教育应用伦理规范的合法性与普适性。目前国家已经出台一系列法律法规来加强对人工智能技术的规约,譬如,2022年3月1日施行的《互联网信息服务算法推荐管理规定》,对算法推荐服务作出了全面细致的规范,明确了算法推荐服务提供者的信息服务规范和算法治理体系,合理构建了网络平台问责机制,实行事前事中事后全流程、全链条政府监管 [9] 。此外,2023年1月10日起正式施行的《互联网信息服务深度合成管理规定》标志着我国首次对深度合成这种重要但风险性极高的算法服务率先进行立法,该规定表明不仅要对平台进行监管,也要对其背后的技术开发者进行监督。

4.3. 以立法保护教育主体数据隐私权

信息隐私在网络与大数据时代的新发展表明,对信息隐私的保护应基于对个人数据的规制之上 [10] 。目前国家对数据隐私权的保护仍存在许多不足之处,不法途径泄露个人隐私数据事情层出不穷,如偷窃、倒卖数据,利用AI换脸技术冒充老师进行诈骗,严重侵犯教育主体的隐私权、人身和财产安全权利。从目前国家现有的法律规制来看,《个人信息保护法》《网络安全法》《互联网信息服务深度合成管理规定》等法律规定的出台,对教育主体的隐私权起到了保护作用。然而,与其他法律一样,立法保护数据隐私不是立竿见影的,法律效果的呈现具有一定的滞后性,随着ChatGPT等生成式人工智能技术不断赋能教育领域,现有立法必须根据实际情况不断进行修正完善,针对各种层出不穷的新情况,及时制定新的法律法规,以更好的保护教育主体隐私权。此外,未来立法可以根据现有情况制定对个人数据隐私权侵害上引入侵权惩罚性赔偿和保护奖励制度,建立健全多元化侵权责任体系。

参考文献

[1] 王萍, 田小勇, 孙侨羽. 可解释教育人工智能研究: 系统框架、应用价值与案例分析[J]. 远程教育杂志, 2021, 39(6): 20-29.
[2] 王晓敏, 刘婵娟. 人工智能赋能教育的伦理省思[J]. 江苏社会科学, 2023(2): 68-77.
[3] 许向东. 人工智能教育应用的伦理困境与规避路径[J]. 软件导刊, 2023, 22(9): 243-247.
[4] 詹泽慧, 季瑜, 牛世婧, 等. ChatGPT嵌入教育生态的内在机理、表征形态及风险化解[J/OL]. 现代远距离教育: 1-17.
https://doi.org/10.13927/j.cnki.yuan.20230721.001
[5] 冯雨奂. ChatGPT在教育领域的应用价值、潜在伦理风险与治理路径[J]. 思想理论教育, 2023(4): 26-32.
[6] 熊才平. “知识沟”理论发展新动向及其演变链系统模型[J]. 电化教育研究, 2004(6): 3-9.
[7] 陈雄辉, 谷紫阳, 覃以凤, 等. 新时代教育信息化人文价值的实现路径[J]. 中国电化教育, 2022(9): 24-29+83.
[8] 樊浩, 田海平. 教育伦理[M]. 南京: 南京大学出版社, 2000.
[9] 潘志玉. 人工智能应用的伦理风险及法治应对[J]. 学习与探索, 2022(7): 61-67.
[10] 段伟文, 纪长霖. 网络与大数据时代的隐私权[J]. 科学与社会, 2014, 4(2): 90-100.