1. 引言
人工智能法立法相关工作计划,被列入第十四届全国人大常委会立法规划以及国务院2023年度立法工作计划中,这是人工智能法立法相关事项被正式提上日程的信号。而当下,人工智能法的研究重心,已从探讨是否立法转向如何才能制定科学且具有前瞻性的人工智能法。人工智能法的特殊性体现在,人工智能不仅拥有类似人类大脑的“思考能力”,甚至在某些领域超越了人脑。此外,人工智能还拥有影响整个人类社会的关键力量,人工智能技术的发展是又一次的科技革命,一些欧美国家早已将发展人工智能纳入科技发展战略中。其中,欧盟的动作最快、最早启动立法工作。在2023年6月,欧洲会议以高票表决,正式批准了《人工智能法案》的相关谈判草案。美国的人工智能立法相关工作也不甘示弱,2023年9月,美国正式公布其人工智能立法架构,这一行动表明美国在人工智能领域的立法构想已趋于成熟。在上述背景下,我国的人工智能立法进程也开始加快。我们应基于中国特色社会主义制度和科技实力两大优势,制定人工智能法,从而确保人工智能的稳定、可控、发展,提高我国国际竞争力、助力全球构建和谐友好的人工智能环境。
2. 人工智能法立法必要性分析
人工智能法的强技术属性注定了其研究方向会注重解决人工智能技术进步给社会带来的影响和挑战。相比其他现行法,人工智能法立法的必要性表现在如下几方面。
2.1. 人工智能法的特殊性
作为法学研究的前沿领域,人工智能法的相关问题,逐渐从传统法学理论体系中分化出来,构建成独立于其他法学理论的研究框架,主要体现在研究对象特殊。民法关注人与人、行政法关注人与国家的关系,人工智能法学有别于这些传统法学理论体系,更关注人与人工智能、人工智能与社会以及人工智能与国家的关系[1]。这种关系的特殊之处在于,人工智能的行为具有一定的不可预测性和独立性,是一个半自主的主体。因此,在制定人工智能法时,需明确人工智能的伦理与合规性、人工智能的法律地位、其被赋予何种权利与义务、其行为所产生的法律责任谁来承担如何承担等内容。在人工智能立法的过程中,不仅要求立法者掌握法学专业知识,还要求立法者们跨学科学习人工智能科学技术、掌握伦理学以及社会科学等多不同领域的知识,这些都充分体现了人工智能法学跨学科的特点。
研究对象的特殊性,还体现在人工智能在法律关系中的地位和作用与传统的自然人、法人等主体截然不同,这种不同是由于人工智能的相关属性导致的,人工智能目前虽然还属于一种“机器”或者说是“程序”的阶段,却拥有自主学习能力、自主决策过程等。为了适应人工智能的这些特点,需要创新理论。比如说,针对人工智能所导致的损害,如何有效预防、如何界定性质、如何追究责任,这些都是人工智能法学研究的重中之重,其重要性不容小觑。
此外,人工智能的研究方法也具有特殊性。人工智能是科学技术发展的产物,因此研究人工智能法时我们不仅需要运用传统人文社科的研究方式,还需要运用新时代科技手段辅助。为使人工智能法真正有效衔接、规制人工智能技术,需要立法者亲自进行算法实验和实际运用过人工智能,基于真实数据制定法律,而非仅靠想象想出一部法律。人工智能系统的思维方式,可以通过算法实验模拟出来,这对于探讨人工智能的“主观想法”极具参考价值。同时,只有实际使用过人工智能才能对人工智能系统的行为模式有大概认知,从而在未来遇见相关法律问题时防患于未然。总之,我们要在了解人工智能特殊性的基础上,运用传统与科学技术想结合的研究方法,与此同时有利于推动法学研究方法的变革。
最后,人工智能法虽然具有特殊性,但也不可避免地受到传统法律的影响,仍需探讨如何确保法律的有效性和适应社会变迁。对人工智能法律体系进行深入研究,有利于在人工智能快速发展的同时为其指明正确方向,对社会发展具有重要作用。
2.2. 人工智能法的目标
2.2.1. 促进法学理论在人工智能时代的革新
人与机器的关系会逐步迭代原有的人与人的关系,使传统的法律关系发生根本变革。随着技术的进步,司机与乘客之间的关系,正逐渐向新型关系演变,乘客还是原来的乘客——自然人,但是随着自动驾驶网约车在大城市试点普及,部分网约车司机的工作逐渐被自动驾驶汽车取代;同样地,企业与雇员之间的传统关系也在改变,例如部分超市不设收银员而是自助收款机,由AI摄像头锁定逃单人员,逐渐演变成了“企业——机器”的关系。尽管关于人工智能能否具备法律主体地位存在理论上的分歧,但人工智能改变原有的法律关系格局这一趋势已无法逆转,在此背景下,诞生于传统法律关系中的传统法律理论,法律关系一旦在根本上改变,传统法律理论将不可避免地迎来革新与发展。传统法律难以适应从人与人到人与机器关系的转变。因为构建传统法学理论的基础是“人的行为”,比如民法的侵权责任原则,其核心是人的“主观过错判断”[2]。当关系迭代的现象出现时,我们不能再直接套用这些基于“人的行为”产生的法学理论来规范人与机器的关系,那么该如何约束和规范,将是人工智能法需要探讨的问题。
2.2.2. 推动人工智能时代法治实践的全面升级
第一,推动人工智能时代司法公正。这是人工智能法的立法目标,尤其是当法官遇到不同于传统的法律问题时——多由人工智能导致的法律问题,为他协助法官公正司法提供正确思路和理论支撑,以更精确、更好地适用法律,提高判决的科学性和公正性,最终构建出一个可持续发展的环境。随着人工智能技术的迭代与进步,人工智能的法律体系也应能够适时地进行革新与调整,才能确保长期司法公正和维持法律的稳定性。
第二,推动人工智能时代执法准确。标准只有确立才能够适用,人工智能法的确立,能够提升执法人员识别违法行为的能力,从而增强执法精确度。除此之外,还可以进一步确保在法治原则的约束下,保障程序正义,加强各环节协调,减少执法中不必要的环节,保障执法的合法性和正当性,有效预防公权力对私权利的不当侵害。
确立人工智能法不是我们的最终目的,而是通过人工智能法的确立,维护法律的尊严与促进社会公正,确保法律适用的精准性和提升执法效率,最终构建一套能够顺应社会发展的执法理论指导原则,从而在保障法律权威的同时,促进执法工作的有效性与公正性。
3. 人工智能法应遵循的基本原则
法律原则,是一部法律不可或缺的重要部分。社会是不断变化的,人的有限理性不足以应对这种变化的无穷性,再优良的法律也无法预料到所有将未发生之事,法律无法规范万事万物,此时就需要法律原则来填补漏洞、纠正错误。
作为基础性与综合性并存的人工智能法,其核心在于为人工智能的规范提供法律依据,因此保持法律的稳定性至关重要。但是人工智能技术的发展日新月异,在法的稳定性与技术创新之间发生冲突时,法律该如何取舍的问题上,明确人工智能法的基本原则显得尤为重要。根据目前学界观点,人工智能法的基本原则至少包括以下几个。
3.1. 公平原则
公平,不是严格意义上的法律原则,而是作为一种基本原则、理念或者基础价值存在。在传统法学理论中,公平也是一种道德观念,是正义的体现之一,其核心在于人人平等,确保每个独立个体都能获得其应享有的权利和待遇。基本原则应该或者说至少包括公平原则的理由如下:首先,正义、公平、秩序与效率共同构成了法律的基本价值体系,其中,公平占据着举足轻重的地位。法律认同何种价值,都体现在法律原则上,人工智能法对公平原则的认同,某种程度上能体现它们内在上的逻辑一致性。
人工智能因其数据来源、算法设计等阶段可能存在设计者的偏好,从而导致最终导向的结果可能存在偏差、歧视,最终导致不公平[3]。因此,人工智能法中的公平原则不可避免的向算法公平和数据正义倾斜。算法公平强调人工智能决策全过程的透明、公开和非歧视,从而避免算法结果存在歧视的可能性。大数据过度地收集、推演、使用大量数据,普罗大众的隐私被过度曝光,因此数据正义要求合理使用用户数据并加强对公众的隐私保护。此外,数字经济因其固有的垄断特性,驱使着人工智能服务提供者实施垄断行为。垄断者为了获得超额利益,势必挥刀向弱者,致使弱者利益受到侵害[4]。
如何让人工智能发展带来的福利在全社会实现共享,关键在于社会弱势群体是否也能享受到这种福利,即常说的木桶效应。不过,值得注意的是,人工智能法所倡导的公平原则,其内涵丰富,如何落实公平原则与明晰公平原则的适用范围,仍需要学界进一步研究。如郑戈所言,现有法律结构,在数字化时代的影响下,正悄然改变,在这种情况下,法律上可以做的事情是限制强者、保护弱者,避免“强者为所能为,弱者受所必受”的情况,法律是社会的公器,它必须找到符合公共利益的社会关系调整方式[5]。
3.2. 安全原则
在人工智能时代,关于安全的议题再次被提起,成为人工智能立法应当要重点关注的价值与法益,安全原则不仅是衡量安全与效益平衡的重要工具,更是一项重要法律原则。
安全可以区分为三个层次:广义上的安全,主体是国家,以国际社会中的国家主权和社会安全为重点;中义上的安全,强调社会结构的秩序稳定;狭义上的安全,则聚焦于社会秩序的特定环节,包括财产与人身安全,新兴技术领域与行业安全等方面。在数字化和人工智能发展应用的背景下,对安全的定义又多了一个,即在线上虚拟网络活动中,个人行为不受他人监视和跟踪、个人应用数据不被别有用心之人随意使用、个人隐私数据不被随意出卖,最后也是最重要的一点,个人肖像和声音不被AI随意合成使用后再经网络传播从而导致无法挽回的后果。因此,被侵权人要求侵权人删除权益的相关规定、知情同意规则也应纳入安全原则的调整范围。
安全,意味着维护整个社会秩序的稳定。人工智能法应当保障社会安全。人类社会使用人工智能技术势必会带来风险,与此同时,滥用人工智能技术又会产生新的风险,过度滥用会提高风险传播速度、风险叠加使其危害系数更高[6]。安全,也是许多法律部门追求的目标,不同的法律部门有不同的实现方法。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序[7]。
人工智能技术还在发展中,但科技是把双刃剑,且人类是会未雨绸缪的生物,已经有部分人开始担心在未来的某一天,人工智能会取代人类并引发严重后果,且人工智能技术自身固有的不确定性,立法者应重视这些不稳定因素,将安全原则作为人工智能法的基本原则,以防止风险。
4. 人工智能立法的基本思路
4.1. 总体性立法
立法的明确性和具体性要求法律在其适用范围内不仅要覆盖宏观,也要细致到微观;立法的前瞻性和预见性要求,法律应站在后天设计明天指导今天。在传统条件下,经济社会发展平稳的时期,一般是可以同时满足明确性和具体性这两个要求的。
然而,在人工智能立法实践中,同时兼顾这两个要求却是一项困难的挑战。因为人工智能技术更新换代的速度非常快,OpenAI公司从2018年发布GPT-1到2022年发布ChatGPT也仅间隔4年。若是依照传统的立法路径,人工智能技术的进化速度将超越立法的速度,从而使得被制定出来的法律出现滞后于技术发展的现象。总的来说,现阶段的人工智能还处于萌芽阶段,技术更新换代速度快,尚未稳定。因此,人工智能法在其前瞻性、预见性上不可避免地会与明确性、具体性产生冲突,然而实际上,在所有法律中都存在这样的对立和冲突,只是在人工智能领域更加突出且难以调和。针对这个问题,人工智能法应避免过度细化具体问题,相反,它应在宏观上指导,侧重于确立总体方向、基本原则及核心制度,才能应对人工智能领域的快速发展。换言之,为了减少法律的修改频率,延长其适用期限,可以适当减少对细节的严格规定。
4.2. 保障性立法
法律是平衡的艺术,人工智能法需平衡风险防控与技术创新之间的关系。从人工智能立法领域的先行者——欧盟与美国来看,体现了两种不同的人工智能立法规制方案。具体而言,欧盟通过其《人工智能法案》草案,将人工智能应用的风险划分为四个层次,由高到低为:高危、高、中、低以及零风险,这一风险分类框架构成了欧盟管理人工智能策略的核心,欧盟的人工智能法已经过修订但仍未动摇以危险层次为基础。相比之下,美国的策略与欧盟截然不同,倾向于采取较为宽松的监管模式,旨在通过减少监管障碍来促进人工智能产业的繁荣。在此框架下,监管措施被视作服务于人工智能的有效利用与创新发展的手段,而非限制其发展。因此,美国的选择体现了以促进产业发展为主导的立法取向。
对于中国来说,在制定人工智能相关法律时,应当秉持发展与安全并行的原则,重视法律的保障作用。这是因为:发展与安全之间存在着根本性的联系,固步自封易陷入被动,即唯有通过不断发展才能确保安全。立法者在人工智能立法时,首先应当摒弃零风险的理想主义倾向,对于日新月异的人工智能技术,要求零风险既不可能也无必要,为了防范风险而遏制发展更非明智之举[8]。