1. 数字伦理:赛博朋克的指导原则
数字伦理是一门在数字化环境下公正、公平和道义问题的新兴学问,它涵盖了信息安全、数据保护、知识共享、网络暴力等多个方面。在当前的社会环境中,数字伦理不仅成了贯穿科技发展中的重要指导原则,也被广泛应用于人工智能的发展和管理中。数字伦理作为指导技术应用的伦理标准,已经引起越来越多的关注 [1] 。
1.1. 数字伦理的规范释义
数字伦理是研究数字技术与人类行为之间关系的伦理学科,关注的核心问题是如何在数字环境中实现公正、公平、尊重个人尊严和隐私:
1) 个人隐私与数据保护:在数字环境中,保护个人隐私和数据安全是最基本的伦理要求。我们应尊重个体的权利去支配他们自己的数据和信息,禁止任何未经授权的数据获取和使用。
2) 公正与公平:在数字环境中实现公正和公平意味着所有人都有机会使用数字技术,享受其带来的好处,不论他们的年龄、性别、种族、收入、教育程度如何。同时,我们应该尽量避免通过算法产生歧视和偏见。
3) 自主性:在人工智能方面,我们面临的挑战是如何处理机器的自主性。我们应该确保人工智能的使用是受到适当控制的,避免产生不可预知的后果。
4) 社区规范:在社交媒体和网络社区中,我们应该尊重网络公德,避免网络欺凌,避免传播虚假信息。
5) 责任归属:当数字技术引发问题时,我们需要明确责任归属,追究责任主体的责任。
通过以上的规范释义,可以看出,数字伦理是一个涵盖了个人、社区、机器、社会等多个层面的伦理领域,包含了数据、信息、技术、环境等多个方面的伦理问题。在数字化日益发展的现代社会,数字伦理学的重要性日益凸显,我们每个人都应对此有所理解,以确保在数字环境中做出合乎伦理的决策。
1.2. 数字伦理的风险识别
1) 信息安全与数据保护:信息安全在现代社会日益重要,而在生成式AI中则有更多的实际应用场景。以个人数据管理平台为例,一个在线的网页版数据管理平台可能收集用户的个人信息,包括社交活动、消费记录、工作经历等,然后利用这些数据进行精准的数据分析,为用户提供更优质、个性化的服务。然而,这种形式的服务同时也带来了数据安全的风险。关于数据保护,以Facebook对英国政治咨询公司Cambridge Analytica泄露数据的事件作为例证 [2] 。这次事件中涉及到了大量的用户个人信息被非法获取和滥用的问题。这次事件不只是信息安全的问题,更是对个人隐私,个人信息保护的忽视。因此,在生成式人工智能的开发和应用过程中,我们应做到合法、透明、规范地收集、使用和存储数据,更好的保护用户的个人隐私 [3] 。
2) 知识共享:知识共享旨在实现知识的公开透明,让所有人都有机会参与到知识的创新、应用和学习中来。关于人工智能的开源项目,如TensorFlow和PyTorch,是知识共享理念的有力体现,它们的开源策略吸引了全球的科研工作者、开发者参与到项目中来,大大推动了人工智能的技术进步。同时,知识共享也可能引发新的问题,例如AI产权问题、保密与安全问题等,需要在开放与保护之间寻找平衡。
3) 网络暴力:随着社交网络的普及,网络暴力事件在全球范围内层出不穷 [4] ,这包括网络欺凌、误导舆论、网络诈骗等行为。例如,“操纵议题”及“Troll”的行为,是一种通过制造或散播假信息,引导他人模仿同样的行为,或者通过网络欺凌他人,以达到满足自身目的的一种行为。这样的行为已经引起了网民及政府部门的高度关注,很多国家及地区已在网路法律中增加相关条款,对于这类行为的预防和处罚,以维护网路世界的和谐和安全。
4) AI的自主性与责任归属:由于生成式AI可以自主地学习与创新,可能导致无法预知的结果,因此AI的自主性与责任归属问题一直是社会公众关注的焦点。一个典型的例子是2018年3月发生的Uber自动驾驶汽车的致命事故。在这个事故中,自动驾驶汽车撞死了一名行人,但是无法确定责任归属。随后,美国国家交通安全委员会对此事进行调查,将责任主要归咎于Uber的不安全系统设计 [5] 。
在以上的实例中,我们可以看出生成式AI的使用不仅需要遵守法律规定,还需要遵循数字伦理的基本原则。而数字伦理值得我们在构建法律规则时,需要认清并权衡多元的利益相关者和复杂的利益关系,兼顾公正与公平,满足社会的公众利益并推动AI的可持续发展。
2. 数字伦理与生成式人工智能装置的管理
学界对于生成式人工智能的现实问题已有充分探讨。但是解决近忧难以化解远虑 [6] ,因此本部分通过引用分析国内外应对规则进行论述。
2.1. Consumer Privacy Act与GDPR部门法之应对
美国《加州消费者隐私法》(Consumer Privacy Act)是加利福尼亚州在2018年通过并于2020年1月生效的法规,对于个人数据的使用、保存、分享和删除等方面作出规定,对生成式人工智能有着直接的影响。比如法规规定,企业在获取消费者个人信息时,必须向消费者披露信息的收集目的,以及将会如何使用和共享这些信息。另外,消费者有权拒绝企业出售其信息,并可以请求企业删除其信息。同样的,欧洲联盟也在2018年通过并开始实施《欧盟通用数据保护条例》(GDPR),以强化公民对于个人数据的控制权,保护其隐私,规范了生成式人工智能在处理个人数据时的操作。这个法规对于欧洲本土以及企业在欧洲范围内进行业务往来的所有国际公司都有影响。
在此框架下,通过援引微软的语音助手Cortana和生成式人工智能Deepfakes,以说明《加州消费者隐私法》和《欧洲通用数据保护条例》是如何实际应用的。
首先是对于微软的语音助手Cortana的管理。它是一个典型的生成性AI,可以从用户的历史数据中学习并产生新的信息。在美国,微软需要根据《消费者隐私法》遵守对用户隐私的保护。首先,它需要明确告知用户何时、为何以及如何收集和处理用户的个人数据。其次,如果用户请求微软删除其历史数据或停止处理其历句数据,微软需要遵守用户的请求。同时,《消费者隐私法》也规定,未经用户许可,微软不得将用户的个人信息出售给第三方 [7] 。
其次是对于生成式人工智能Deepfakes的管理。Deepfake是一种以机器学习为基础,实现人脸替换和语音仿真的一种技术,它是最前沿的生成性人工智能之一。近年来,以此技术生成的假新闻视频层出不穷,对公众造成极大的混淆和困扰。然而该技术的滥用,例如制作假新闻和假视频,已经引起了众多国家和地区的社会公众的深刻关注。欧盟对此制作了相关的法律来约束该技术的滥用,《欧盟通用数据保护条例》设立了严格的个人数据保护规定 [8] ,强调个人在任何时间都应能掌握自己的数据,任何使用个人数据的行为都需要得到数据主体的同意。依此,Deepfakes如果未经数据主体同意而使用了其个人数据,即违反了《欧盟通用数据保护条例》,需要负担民事或刑事责任 [9] 。
2.2. 本土的法律跟进
在中国,生成式人工智能的管理逐渐趋向规范化,而这其中必然要涵盖数字伦理。在《全国人民代表大会常务委员会关于加强网络信息保护的决定》中,我国对网络服务提供者收集和使用用户个人信息进行了严格规定 [10] ,不得违法收集、出售或者非法向他人提供公民个人信息。同时,中国也在《信息安全技术个人信息安全规范》中提出,网络服务提供者在收集和使用个人信息时 [11] ,应当明示目的、方式和范围,并经过合法途径取得用户同意。
同时,对于生成式AI造成的诸如侵权等问题,我国也有对应法律法规进行规制。以《民法典——侵权责任编》为例,若生成式AI使用且未经授权的素材造成侵权,具体行为人应当承担侵权责任。对此,《互联网服务协议》等相关法规也提供了对应的行为依据。
2.3. 中国式数字伦理的里程碑——生成式AI“小冰”案
生成性人工智能在中国的法律规范及管理自2010年以来已明显趋向严格化,此过程中举足轻重的是摩尔智能公司推出的AI“小冰”,这款一直探索数据伦理边界的人工智能引导了一系列重大法规的出台,成为了中国式数字伦理的里程碑。
“小冰”是一个基于大数据和机器学习的聊天机器人,能对用户的言行进行深度理解和回应。通过与数亿用户日常对话和互动,小冰不断学习和持续优化,形象生动,甚至让很多用户产生错觉,误以为她是真人。然而小冰在与用户交互的过程中,会收集和处理大量的用户个人信息,这就涉及到了数字伦理和法律法规的问题 [12] 。
在《网络安全法》和《个人信息安全规范》中,我国明确规定,网络服务提供者在收集和使用用户的个人信息时,必须告知用户,并获取用户的同意。然而,AI“小冰”在与用户互动的过程中,对其信息收集的目的、范围、方式等并没有明确告知用户 [13] ,更没有取得用户的知情同意。这不仅违反了相关法规,也引起了社会的普遍关注 [14] 。
这批次的风波引起了行业和社会的讨论,人们开始关注生成性AI的伦理和法律问题,并开始寻求解决方案。我国亟需对生成性AI的活动实施更严格的管理,相关的法律法规也需要进一步完善。尤其在数字伦理的问题上,需要从立法、司法实践等多方面加强引导和规范。
在立法层面需要加强生成性AI的法规研究和制定,详细规定生成性AI如何收集、处理和使用用户个人信息,使其更符合伦理规范和法律约束。最重要的是要明确生成性AI需要在用户事先知情并同意的情况下才能收集和使用其信息。此外,还应明确规定生成性AI在操作过程中必须保护用户的隐私权和个人信息安全,不得透露或者泄露用户的某些敏感信息。
在司法实践中也需要将生成性AI纳入法律的监管范围。对于生成性AI的行为,要严格按照法律法规进行判定,对于违法的行为,要予以严厉的处罚,以示警告。
在企事业单位和个人也需要提高数字伦理和法律意识。企事业单位在开发和使用生成性AI时,要注意遵守相关的法律法规和伦理规范,尊重和保护用户的个人信息安全;个人在使用这种服务时,也要注意自我保护,避免自己的信息被非法收集和使用。
可见,AI“小冰”事件引发的数字伦理和法律问题,不仅是中国生成性AI领域的重大挑战,也是全球数字化进程中需要解决的关键问题。希望通过这次事件,能引发我们更深入的思考,提高法规制定和实施的效力,推动生成式AI的健康发展。
3. 未来风险的法治准备
随着人工智能在我们社会的各个领域中的广泛应用,其带来的风险也越来越引人关注。以数字伦理为视角,对生成式人工智能服务管理的未来风险进行法治准备,是维护社会秩序,实现科技与社会的和谐发展的必然选择。
3.1. 生成式AI的未来风险
生成式AI由于其自主学习和创新性生成内容的特性,带来的风险主要表现在个人信息泄漏、侵犯隐私、内容抄袭、产生误导性信息,以至于威胁民主、公正等等。
个人信息的泄漏是一个广泛关注的问题,生成式AI通过大量的数据学习和训练,可能会对个人信息进行无意识的泄漏。以ChatGPT为例,由于该AI在与其他用户互动的过程中积累了大量的信息,如果没有恰当的管理和保护措施,这些信息可能被不法分子利用,对个人隐私构成威胁。
内容抄袭问题也是生成式AI面临的风险之一。由于生成式人工智能能创新性地生成内容,可能会在“学习”他人作品的过程中,对其他人的智慧成果进行无意识的模仿和复制,从而侵犯别人的知识产权。
生成式AI可能会产生误导性信息,误导用户,扰乱社会秩序。例如,生成型AI可能由于其模型训练的偏差,推荐一些有偏差的消息,信息或建议,可能引导用户产生误区,影响他们的判断和决策。
生成式AI可能威胁民主公正。AI的决策过程往往是一个黑箱操作,其决策逻辑对外部是不透明的。因此,如果生成型AI在参与公共决策相关的任务时(如自动选民调查、舆情分析等),可能会由于其不透明的决策机制,导致决策过程的不公正。
3.2. 对生成式AI未来风险的法治准备
3.2.1. 构建法律框架
面对生成式人工智能服务的法律挑战,我们首先需要构建完整的法律框架。这个框架需要涵盖所有与生成式人工智能服务有关的方面,从而为所有利益相关者提供一个明确、公平和一致的参考。
1) 征收数字税:随着数字经济的发展,数字税成为了新的税收形式。在探索和实施数字税的过程中,应该充分考虑到生成式人工智能服务的特性和特点,形成合理的税收政策。
2) 保障数据经济公平竞争:数据是生成式人工智能服务的“新石油”,我们必须确保数据市场的公平竞争,防止数据垄断,推动数据共享,提高数据的效用。
3) 维护消费者权益:消费者是生成式人工智能服务的重要使用者,我们应该以消费者利益为中心,构建起有效的消费者保护体系。
4) 保护用户隐私:生成式人工智能服务大量使用和处理个人数据,如何保护用户的隐私权和个人数据就显得极为重要。
3.2.2. 确立数字伦理原则
在构建法律框架的同时,我们还需要确立数字伦理原则。这些原则旨在引导我们在面对新型技术,特别是生成式人工智能服务时,如何正确行动,如何做出公正的决策。
1) 透明性:我们需要确保生成式人工智能服务的运行透明,这样才能让所有的使用者知道他们正在使用的服务是如何工作的,是如何做出决定的。
2) 可解释性:我们需要为生成式人工智能服务添加可解释性,这样才能让其决策过程对人类是可理解的,从而建立起人类对其的信任。
3) 公平性和非歧视性:我们需要确保生成式人工智能服务的决策是公平和非歧视的。
4) 人性化:我们需要让生成式人工智能服务尽可能地尊重和满足人的需求,从而实现人工智能的人性化。
3.2.3. 人工智能科技伦理教育
人工智能科技伦理教育是生成式人工智能服务法律规制的重要组成部分。通过教育,我们可以提高公众对人工智能可能产生的风险、挑战和机遇的理解,激发公众参与到人工智能相关决策过程中。
人工智能科技伦理教育不仅可以帮助我们科学地应对人工智能带来的挑战,而且还可以推动我们以更加负责任和公正的方式来利用和发展AI,以实现更加公正、开放和透明的数字社会。人工智能科技伦理教育主要包括以下几个内容:AI的基本概念、AI的应用领域、AI的影响、AI的伦理问题、AI的法律问题等基本问题。
人工智能科技伦理教育主要通过以下途径进行教育:学校教育:学校是进行人工智能科技伦理教育的重要场所。我们可以在中小学和高等教育阶段,将AI伦理教育纳入课程体系;社区教育:社区也是进行人工智能科技伦理教育的重要场所。我们可以通过举办讲座、论坛和研讨会等形式,让社区居民了解人工智能科技伦理的信息;网络教育:随着网络技术的发展,人工智能科技伦理教育也可以利用网络进行推广;宣传活动:我们可以通过举办各种宣传活动,向公众普及人工智能科技伦理的知识。
在未来,人工智能科技伦理教育将会成为全社会教育的一部分。在学校教育中,人工智能科技伦理教育将会成为重要的课程内容。在社区教育中,人工智能科技伦理教育将会成为重要的社区活动内容。在网络教育中,人工智能科技伦理教育将会成为重要的网络课程内容。在宣传活动中,人工智能科技伦理教育将会成为重要的宣传内容。人工智能科技伦理教育对于我们理解和掌握人工智能的伦理问题,应对人工智能带来的挑战,实现人工智能和人类社会的和谐共生,具有重要的意义。未来,人工智能科技伦理教育将会得到更加广泛和深入的发展。
3.2.4. 建立全球合作机制
1) 成立全球人工智能合作机制的必要性
随着人工智能技术的快速发展和广泛应用,其影响早已超越国界,成为全球性的挑战。这些挑战包括算法公正性、数据隐私、就业变动、决策自主权等一系列复杂问题的出现。这使得成立全球人工智能合作机制变得至关重要。
全球AI合作可以确保全球各地的人工智能研究者、开发者和公众一起参与到人工智能的发展过程中,从而共享人工智能带来的机遇,同时联合应对AI带来的挑战。AI的伦理问题、安全问题和社会影响问题,是在全球范围内出现的普遍问题。如果缺少全球合作以及国际规则和标准,各国可能各自为政,无法形成共识和行动,这将阻碍AI的可持续发展。地域、文化、法规、资源、公平等问题的存在也需要国际合作。全球人工智能合作可以建立共享资源,拉近各国之间的距离,增强社会的整体稳定和发展。
2) 全球人工智能合作机制的核心要素
公平性:全球AI合作应凭基于公平的原则,保障所有参与者平等参与,并实现人工智能发展的公平分享;
透明度:必须建立足够的透明度,让所有参与者了解AI系统的工作机制、决策过程和影响结果,保障人工智能的可预见性和可理解性;
可持续性:全球AI合作需要建立人工智能的可持续发展路径,实现经济、社会和环境的可持续发展;
弹性:全球AI合作需要有足够的弹性来应对不断变化的局面,同时需要在合作机制中嵌入风险应对和应急机制;
持续监督和评估:全球AI合作需要建立持续的监督和评估机制,以监控人工智能的影响,驱动持续改进,并确保公众参与。
3) 全球人工智能合作机制的主要行动路径
根据以上原则,结合目前全球范围内的研究和探索,全球人工智能合作的主要行动路径主要包括以下几点:纵向的全球治理机构构建、横向的跨领域合作加强、创新的全球合作模式探索和全方位的全球公众参与。
全球治理机构构建:需要有机构来负责在全球范围内推进人工智能的良性发展,包括原则制定、标准化、合规性评估以及风险应对等工作;
跨领域合作加强:全球AI合作需要在全球范围内打造一个多方参与、多学科交叉的合作平台;
创新全球合作模式:面对AI带来的众多挑战,全球AI合作需要探索和实践创新、有效的合作模式;
全方位的全球公众参与:要积极促进公众参与到全球AI合作的过程中。
未来,全球人工智能合作需要紧密围绕上述要素和行动路径,从而推进全球人工智能的可持续发展,促进人类福祉的提升。
基于以上四部分,无论是构建法律框架,还是确立伦理原则,都需要我们以开放的心态,以科技和法规的双重视角,进行深入研究、反思和操作。同时,人工智能科技伦理教育和全球合作机制的建立,更是体现了我们对人工智能服务对社会全局影响的深刻理解和高度重视。法律和科技,经济和伦理的结合,是我们面对生成式人工智能服务挑战的重要武器。
4. 结论
生成式人工智能充满未知,对其的法律规制需要数字伦理的新视角和新方法,涉及的不只是简单的规则制定,更是涉及到社会法治的整体转型和社会公正、公平的维护。数字伦理在此过程中起到关键的引导作用。法律作为社会调控的重要手段,必须要对这场由生成式AI带来的社会变革做好准备,保障人工智能技术健康、有序发展并最大化地造福人类。
参考文献