1. 引言
美国科幻作家艾萨克·阿西莫夫曾在其小说中提出“机器人学三法则”,分别是“机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管”、“机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外”和“机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存”。阿西莫夫意图倡导在机器人发展给人类带来难以清楚预估的影响面前突出和保障人类个体乃至人类整体的安全的优先价值。尽管人工智能(Artificial Intelligence)的技术创新和互联网化在今天给经济社会生活带来诸多效益 [1],但也存在引发对人格权保护的挑战和相应的侵权责任问题的风险。现行法律体系缺乏明晰的人工智能法律人格规制,导致实践应用层面法律价值指引的缺位。人工智能技术的应用和发展过程中,应牢牢遵循人类利益优位原则,法律规制应体现人类中心主义的价值遵循,以更好地解决人工智能侵权问题,促进人工智能技术的正向发展。
2. 人工智能技术对人格权的挑战与冲突
人类已经进入人工智能时代。近年来,人工智能侵犯人格权现象和事件屡见不鲜,尤其是对于生命健康、肖像和隐私等基本权利的侵犯。
2.1. 生命权、身体权、健康权
《中华人民共和国民法典》(下称《民法典》)第1103条至第1105条规定了自然人的生命权、身体权、健康权受法律保护,不受任何组织或个人的侵害。
人工智能技术的发展对自然人的生命权、身体权或健康权带来挑战,引发了民事责任承担难题。譬如,据了解2015年在大众汽车的生产线上一台机器人突然袭击并摔死了一名男性的工人;无独有偶,2016年11月在第18届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然暴力攻击路人,造成了严重的损伤,2019年自动驾驶系统与飞行员争夺飞机控制权致波音737六个月内接连发生空难,2021年4月休斯敦一辆无人驾驶的智能特斯拉汽车发生车祸致车内两名乘客死亡。
在人工智能严重侵犯人的生命权、身体权或健康权时,困境在于责任主体难以认定。现今国内立法还未确认人工智能是否具有法律主体地位,享有法律权利,负有法律义务,人工智能似乎只能作为“产品”从而追究生产者、制造者或销者的“产品责任”,此种趋势削弱了对受害人的保护。
2.2. 肖像权、名誉权
《民法典》第1018条至第1022条的规定以未经同意不得制作、使用、公开他人肖像为原则,以五项合理实施行为为例外。《民法典》第1024条至第1030条界定了名誉权及其受保护的范围、限制及救济措施等。
2019年9月,一款名叫“ZAO-逢联造戏”的智能换脸软件涉嫌侵权,一些软件用户发现自己突然成了著作权或肖像权的侵权人。笔者在各社交平台看到过许多用户上传了使用此软件生成的自己或明星肖像的换脸视频,如哔哩哔哩某UP主上传的“144位明星换脸华妃”系列视频总播放量高达千万。一般的换脸视频可能存在侵犯他人肖像权问题,更有甚者,已经对他人名誉权构成威胁,以女性为主要受害对象。譬如女明星的脸被移花接木到色情淫秽视频女优的脸上,并因此在网络上形成地下产业链。
2.3. 隐私权
《民法典》第1032条至第1039条规定了个人隐私,尤其是个人信息及其受到法律保护的范围。
人们对个人隐私被侵犯的体会最为明显。因为在互联网时代,每一位互联网用户都能成为服务商的客户。互联网应急中心(CNCERT)已在《2019年我国互联网网络安全态势综述》明确指出APP对软件用户的隐私和个人信息的恶意使用已经构成极为严重的不安全趋势。移动手机软件商店内的APP几乎都存在违规索权的情况,如调取相机权限、读取联系人权限等。人们熟知的淘宝、知乎等互联网服务商利用数据爬取技术,收集、获取用户特征、偏好“画像”,并据此推荐或提供个性化服务或产品。数据爬取技术是按照预先编写的算法规则,遍历并搜集、提取有用的网页数据以回传给技术人员,再由之重新加工得到更高价值信息的技术 [2]。某些不法分子通过爬取用户隐私数据,登录各运营商系统爬取用户的移动号码和各种通话记录数据,形成“个人用户报告”,将可能涉及个人数据过度使用或不恰当披露的法律问题。
综上所述,随着人工智能技术的发展,技术运用侵犯人权的现象日益严重,亟待法律对此做出有力回应。
3. 人工智能侵权问题的社会根源分析
人工智能侵权现象日益严重的问题,有相应的社会、经济、法律、制度和理论根源,是复杂因素综合作用的结果。
3.1. 技术迭代与立法滞后的冲突
人工智能技术本身作为一项新生事物,发展迅猛,迭代迅速。马长山说“它所带来的空前变革……在很大意义上则是对工业革命以来生产关系和生活方式的一种替代……全新法律关系不断出现……” [3],强调了在人工智能技术变革导致既定规则秩序发生颠覆性变革的过程中要充分发挥法律的调整作用。立法,具有发挥规范、引领和推动作用的宗旨和功能,这决定了立法活动的确定性和稳定性。然而,人工智能这项新事物的应用和发展具有很大的不确定性,制约了要求发挥引领和推动人工智能技术发展的法律法规的制定和出台。的确,人工智能对现行法律制度和规则的冲击是全面而深刻的,全面性不言而喻,其深刻性表现为现有的制度理论和规则基础已难以完全容纳对人工智能行为的评价,通过补充或解释现有立法很难弥补法律制度或规则上的缺失 [3]。因而,立法者不得不谨慎应对。加之立法作为一项实务工作,在学界都仍未达成大致的理论共识的情况下,很难期待立法者就上述问题在制度或规则层面做出决断性的设定 [3]。于是,这必然造成一项技术发展没有方向性,没有轨道,不知道何为边界,进而对于技术的滥用也无所适从,正常的社会秩序受到挑战,人格权利遭到侵犯。
即使立法者终于做出了立法回应,基于法律的滞后性,社会环境和技术本身在不断运动、变化的同时,法律却不可能时刻反映社会变化,技术垄断者或使用者等处于优势地位的一方,永远可能钻法律的漏洞,或打法律的“擦边球”,继续为所欲为,逍遥法外。新问题会源源不断地出现,这是毋容置疑的。
3.2. 其他社会规范的调整难度
法律只是多元社会规范中的一种规则体系。技术规范、行业道德、价值准则、企业规章等,都会在人工智能的规范和规制上发挥相应的功能。技术标准、行业规范和价值准则等对国家法律规范功能的挑战,其实不是担心前者对后者的取代,而是在立法者未能及时在国家法律层面做出立法决断的情况下,前者都可能会对人工智能的发展和之后的立法调整产生副作用 [3]。崔靖梓认为“人工智能算法的广泛应用在将来可能会产生针对特殊主体的个体性规则,这种规则会在突破法的一般性的同时造成实质的不平等。法律面前人人平等的理念被这种个体性规则所冲击,有关平等的理论该如何应对、如何确保公民的平等权不因算法歧视而遭到毁灭性打压将是一个值得思考的未来命题” [4]。道德或价值准则的最初确定一旦出现偏差,对于之后立法的负面影响也是很难扭转的。技术标准、行业规范等本身不具有法律上的强制约束力,甚至可能背离法律追求公正、平等的初衷,造成实质上的不平等,或者加大技术占有者和技术对象之间的歧视与地位差距。加之由非其强制性决定的救济措施的缺位,或者实施救济本身的成本之高而侵权成本之低、可期待利益之大,决定了技术占有者采取铤而走险的方式,造成技术被不恰当的方式使用。例如,某些AI“脱衣”软件虽在各应用商店下架,但在网络上只需花费十元人民币就能买到这款软件,利用这款软件的技术传播女性的“裸照”,其严重后果不堪设想。
3.3. 行为自由和权益保护的平衡
法律是衡平的艺术。侵权责任法的目的,一是保护私权,确保权利受侵害的主体能够获得法律上的救济,二是保障行为自由,使人们能够对自己的行为后果具有明确的预期。侵权责任法的价值追求就是保证行为自由和权益保护之间的平衡。
目前,人工智能产品,如自动驾驶汽车、轮船或飞机,只能作为“产品”从而追究生产者、制造商或销售者的“产品责任”。自动驾驶汽车、轮船或飞机是一个由车身、船身或机身以及自动驾驶技术和设备组成的综合体,制造商生产普通的汽车车身、轮船船体和飞机机身,而自动驾驶系统研发企业将为其装载具有自动驾驶功能的各种硬件和软件设备。产品责任对生产者而言是无过错责任,只需产品存在缺陷而不要求生产者具有过错,被侵权人即可请求产品的生产者或销售者予以赔偿,除非缺陷是由销售者造成,销售者赔偿后可以向生产者追偿,生产者承担最终责任。严苛的责任规制可能会限制科学技术的发展,限制技术开发者、应用者的行为自由。权益保护和行为自由的天平一旦掌控不好,就会加深矛盾,甚至制造新的矛盾。
3.4. 责任主体认定困境
人工智能产品致损事故的侵权责任主体难以确定。从学理上说,人工智能是否具有法律主体地位,是否属于产品,或是有第三种路径,学界对此争论不休。一些学者从法律工具主义出发,认为赋予人工智能法律主体地位具有理论基础和实践需求,人工智能必须以权利义务承担者身份参与到民事法律关系中才能解决归责困局 [5];一些学者否定人工智能具有法律人格,因为人工智能不具有人的社会性、无人欲、不具备人类理性、不能受个人意志支配 [6];一些学者在肯定人工智能具有独立自主的行为能力同时指出人工智能承担行为能力的后果有限,人工智能应适用特殊的法律规范和侵权责任体系安排,其具有的法律人格是有限的人格 [7],必须局限于“工具性人格”,要求人工智能技术发展必须遵循“以人为本”的价值指引。综上所述,现行国内法体系亟待填补人工智能法律人格和实践层面价值遵循的缺位,以适应人工智能技术发展和应用的需要。
4. 国外人工智能侵权立法经验借鉴
尽管人工智能在发展和应用初期引发诸多侵权问题及挑战,但机遇孕育其中。笔者从欧盟、美国、日本立法改革的主要内容进行深入考察和评述,以窥探为我国人工智能产品致害侵权责任的法律应对所可能提供的参考和借鉴。
4.1. 欧盟立法突破:“电子人”
2017年欧洲议会通过《机器人民事法律规则的决议》(下称《决议》),明确了在保证不阻碍创新的前提下采取渐进主义的务实态度的基本策略,以充分保护受害人的合法权益得到救济为原则,并要求采取智能机器人损害风险的预防措施,尽可能实现最大收益和最小损害 [8]。《决议》主要提出了以下立法改革内容。第一,差别化责任形态。承担责任的主体,与智能机器人自主性程度有关。给予人工智能机器人指令的责任主体的责任和人工智能的自主性程度呈正相关,当然,这是在承担最终责任的主体已经确定的前提下。第二,保险与基金救济。通过设立赔偿基金和强制性保险计划,发挥保险制度对民事侵权责任制度于受害人救济的补充作用和功能。《决议》规定倘若制造商、所有者和使用人已共同为智能机器人致害设立保险或向赔偿基金捐款,则只需承担有限赔偿责任。第三,电子人格赋予。这是《决议》中除对既有民事法律规则框架调整之外的对于现行私法原理的立法突破。为了更好地为侵权所造成的损害负责,建议赋予最复杂、自主能力最高的智能机器人以“电子人格”的法律地位,并推动在欧盟范围内建立一个高级智能机器人登记制度,由专门机构进行管理。
《决议》还明确了伦理原则与法律规则的关系,强调伦理原则对欧盟法律框架和法律规则的更新和补充的指导与引领作用,让伦理、道德原则的遵循贯彻智能机器人的研发、设计、生产和运用各阶段,包括尊重人类自主性、避免伤害原则、公平性、可解释性等,以确保人工智能产品的应用和发展所可能造成的损害风险被降到最低。
4.2. 美国消费者隐私保护:删除权(Opt-Out Right)
2019年6月,美国发布新版《国家人工智能研究和发展战略计划》,强调保证数据安全、隐私和机密性。在人工智能数据安全方面,美国通过具体的场景化立法和州立法,对一系列人工智能行业应用进行数据安全监管。首先,在隐私保护方面,50个州有各自不同完备程度的法律法规,通过明确在线互联网企业、电信增值业务企业的数据安全保护义务来防范数据泄露和滥用,保护公民隐私权。如2020年1月生效的《加利福尼亚消费者隐私法》(The California Consumer Privacy Act),将个体生物信息、行为情感心理偏好、智商能力等纳入个人信息范畴 [8],规定了消费者对企业收集和管理其个人信息拥有更多控制权,为企业收集处理数据的方式也划定了红线。法案为消费者创建了访问权、删除权和知情权等消费者隐私权利。访问权即消费者有权要求收集个人信息的企业向自己披露被采集信息的类别和具体内容,删除权即消费者有权要求企业删除任何被收集的个人信息,知情权即消费者有权知道自己的个人信息如何被披露或出售给第三方。
4.3. 日本对刚性立法的审慎态度:“软法”
日本在2017年7月公布了《人工智能开发指针方案》(下称《方案》),主要提出以下几大理念。第一,人与人工智能网络共生、共享恩惠,进而建立一个尊重人的尊严和个体自主性的“以人为本”的社会;第二,在人工智能开发初期,通过立法来进行规制有可能限缩创新活动,因此对制定刚性规范应持慎重态度,不妨更多地借助“软法”等非正式的有序化机制;第三,人工智能的治理不可能局限于一国范围内,应对最佳实践经验进行国际共享,制定全球化治理框架,凝聚国际共识;第四,在通过开发活动和公平竞争增进社会效益的同时防范风险,确保效益和风险的适当平衡。《方案》还具体阐述了人工智能开发的九项原则,其中较为重要的是“透明原则”(技术开发者公开算法、源代码和学习数据等)、“可控原则”(确保开发者通过采取预警、停机、断网等举措来控制和驾驭人工智能)、“无害原则”(保证人类的生命、安全、财产不受损伤)、“隐私原则”(防止人工智能使用者的个人信息遭泄露或滥用)、“问责原则”(利益相关者是否履行说明、警示义务等) [1]。
5. 我国人工智能侵权责任法律应对
国内一些涉及人工智能技术开发与运用的机构和企业已经依据2017年《新一代人工智能发展规划》和2019年《新一代人工智能治理原则——发展负责任的人工智能》制定了相应的技术应用章程和规范,但距离真正的、合理的伦理规范和法律规制的明确还有很大距离 [9]。阿西莫夫所提出的机器人学不伤害法则和服从法则为构建和明晰人类与智能机器人之间关系的伦理规范和法律原则做出了贡献,在难以清除预估人工智能发展和革命性突破给人类带来的影响面前,重申了确立人类中心主义的伦理与立法价值的重要意义,突出了保障人类个体和整体安全的优先价值。人工智能的研发、资助、产品制造、商业化与应用都应以人类利益优位原则为价值遵循,人类立法者在这一问题上的首要义务和最高价值是而且必将是保障人类个体和整体的安全利益。
5.1. 赋予人工智能有限性民事主体地位
民事主体是能独立享有民事权利和承担民事义务的主体,是法律赋予的结果,体现的是法律的评价。从古罗马时期“人可非人”到近代欧陆民法时期所有自然人成为独立的民事主体再到现代民法“非人可人”,是功利主义和经济发展的现实需要驱动的结果。由此可见,伦理性作为法律人格的确认标准的必要性在逐渐降低,人类社会发展的实践需要的重要性日益上升。尽管遭到许多质疑,沙特阿拉伯授予机器人索菲亚以公民身份已然成为现实。
笔者主张赋予现有自主性、智能性最高的人工智能“产品”以有限的法律主体地位。这类“产品”被称为强人工智能,其特点是:在被人类创造出来之后,可以不依靠外界,完全依据自己的知识经验做出选择和决策,并在自我理性的支配下实施行为和创造,例如无需人类操控和监督行驶的自动驾驶技术产物,此时所有的人都将是该交通工具的乘客。授予人工智能“产品”以民事主体地位并不会削减人类尊严和整体利益,相反,其目的本质上是使人工智能更好地为人类生产生活服务,并且解决一直以来侵权责任承担主体确认的难题,更好地保障受害人的合法权益。这就决定了人工智能民事主体确认必须受到“人类利益优位原则”和“以人为本”原则的规制和约束,必须明确人工智能法律人格的有限性。人工智能应当享有的权利和承担的义务,必将随着经济社会发展水平和人类社会实践需要而不断变化,但就现阶段而言,人工智能可以被赋予的民事权利和义务必须是周延的。基于现实需要,人工智能可以被赋予独立缔结合同、财产权、数据使用权、著作权等经济型权利和承担相应民事责任,但不能突破人类伦理的规范赋予其某些人格权、身份权以及生育和婚姻相关的权利。
其次,权利能力和行为能力的认定。类比自然人,被赋予民事主体地位的人工智能自程序运行时具有权利能力,程序停止运行时权利能力终止,相应的时间都以人工智能制造者或维护者登记或记载的时间为准。除非设计者有意使人工智能像自然人一样具有逐渐发展的从无到有再到衰减的思维和智力变化过程,否则人工智能就按照拟制法人一样,具有权利能力的人工智能即具有行为能力。
最后,智能机器人承担经济责任的路径。首先要判断责任承担主体是人工智能,还是技术开发者、产品制造商、销售商或产品使用人。产品使用人承担过错责任,在对使用过程中造成的损害有故意或过失时有责。技术开发者、产品制造商、销售商承担无过错责任,由使用人在证明产品本身缺陷或瑕疵导致了侵权损害发生之后,任何一方对受害者均需承担损害赔偿等侵权责任,必须符合免责条件才能免责。至于技术开发者和产品制造商之间的内部责任分配,人工智能侵权事故是因谁违反法定义务引起的,谁承担最终责任。制造商和销售者之间,制造商承担最终责任,除非引起损害发生的产品缺陷产生于销售商进货后至销售时。
如果上述主体都未违反相应的注意义务等法定义务,而是人工智能产品在“自我意识”支配下完成了侵犯人格权行为,则仅以该人工智能产品为责任主体。法律应该为智能机器人创造承担经济责任的路径,一是开立机器人账户,二是为机器人购买保险。1) 在人工智能投入运行前,须为其开设银行存款账户,运行期间产生的利息归智能机器人所有,并且基于其自身运行和创造产生的经济收益应按比例划归该账户所有。账户由智能机器人使用受益人,通常是所有者开设,并且由其保证账户内始终有高于最低限额的资金,以作为智能机器人继续使用的前提条件,并且该账户独立于所有人财产。2) 《新一代人工智能发展规划》已经提出了为应对相关社会问题,必须构建或完善相应的人工智能政策体系,其中就包括了保险机制问题。引入和建立保险机制能弥补民事侵权责任制度的不足和缺陷,使制造商不致因面临巨额赔偿而濒临破产,使受害人得到及时和有效的救济,减少人工智能发展的阻碍和困难。为有效预防风险和有力解决纠纷,应设置强制险和商业险相结合的保险机制。由人工智能“产品”制造方作为强制责任险的投保义务人,鼓励制造方、“产品”所有者作为商业责任险的投保人,使人工智能“产品”在发生侵权责任纠纷时,首先保障受害人能得到最基本的救济,再由商业险弥补强制险不足情形下存在的问题。当然,由于人工智能产品的性能能够基于已发生的损害进行算法改进,因此一个解决保险公司在计算保费时面临的困境的可能思路就是,在人工智能产品中安装记录装置,如智能驾驶汽车内的黑匣子设备,以根据制造者、所有者、使用者和产品类型等具体情形来综合分析事故风险,确定针对性、实时性的保险费用缴纳机制。
5.2. APP数据爬取技术侵犯隐私权法律规制
1) 规范授权时的“告知–同意”规则适用。以用户在“我同意”(相关格式条款)处打钩的方式视为用户同意授权个人信息被收集和使用的方式存在极大的问题。《个人信息保护法(草案)》中关于“个人充分知情”的标准有待进一步明确。一方面,可以参考今年8月1日起实施的《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(下称《规定》)第11条做出类似规定,即信息处理者和自然人订立的格式合同中包含了要求自然人授予其无期限限制、不可撤销、可任意转授权等处理个人信息的权利,该自然人依据民法典第497条请求确认格式条款无效的,人民法院依法予以支持。另一方面,参考《欧盟一般数据保护条例》中对知情同意判断标准做出规定,例如,以默示或预选等不作为方式做出的同意是无效的,APP经营者制定条款时应使用通俗易懂的语言,避免条款术语过于专业化而影响用户正常阅读。
2) 惩罚性赔偿。参考《消费者权益保护法》中有关惩罚性赔偿的规定,在经营者非法使用和处理敏感个人信息时综合考虑侵权手段、程度和造成的影响等因素,制定民事惩罚性损害赔偿的条文规定,从而改善因侵权纠纷败诉赔偿数额小于侵权行为所获利益的缘故而导致APP侵犯个人信息权利现象屡禁不止的局面,并且提高软件使用者个人信息被侵犯后维权的动力 [10]。
5.3. AI换脸技术民法规制
1) 明确换脸技术合理使用的边界。参考《规定》第二条、第五条内容,明确人工智能换脸技术的合理使用范围,以及技术使用者应承担民事责任的情形和免责条件。例如,可以参考美国米勒案确定的判断人工智能换脸作品的诽谤性质成立与否的标准——一般社会公众认为作品整体上具有诽谤性,而且缺乏深远的艺术、科学、文学、政治等价值的作品,是具有诽谤性的AI换脸作品。而讽刺、模仿和评论类的,基于现有时事加以二创的作品,不属于诽谤性质或侵犯名誉权,但是基于捏造事实进行讽刺、模仿或评论,则依前述判断标准处理。
2) 惩罚性赔偿。与APP滥用个人信息侵权相似,设立惩罚性赔偿机制极为必要。对故意制作虚假换脸视频,或明知使用AI换脸技术伪造的视频,以故意(包括直接故意和间接故意)的方式传播该视频的,造成自然人名誉和经济损失的行为人,必须以侵权损失数额或侵权所得利益数额为基准的数倍进行赔偿,以达惩戒和震慑目的 [11]。为严厉打击AI换脸色情化使用,还应使技术色情化使用的换脸产物制作者承担惩罚性损害赔偿责任。
6. 结语
人工智能应当被赋予民事法律人格,但因其承担行为能力后果的有限性,相应地其仅能享有有限的权利并承担相应的义务。探索人工智能适用的责任保险制,既能促使人工智能设计者和生产者不断改进技术、降低产品风险,又能充分保护受害者权益。对以APP数据爬取技术收集个人信息、AI换脸技术为代表的人工智能技术进行立法规制,对于减少人工智能与肖像权、隐私权保护的冲突可能涉及的法律问题具有重要意义,也有利于确保人工智能不会偏离正确的轨道运行和发展。需要说明的是,人工智能技术发展与迭代势不可挡,人类还将迎接“强人工智能”时代的到来,彼时的人工智能可能智商超群、具备独立意识、进行独立决策和行动,这对于立法回应和制度构建又将是新一轮呼唤和挑战。