1. 引言
人工智能(AI)的不断发展,势必会引发侵权事故。例如,2016年3月,人工智能围棋选手AlphaGo以4比1战胜职业九段棋手李世石,随后在某棋牌网站上的程序以“Master”身份在快棋中击败了多位高手,创下60连胜纪录。2017年,AlphaGo以3比0战胜世界顶尖棋手柯洁。在一档综艺节目中,人工智能与插画师、设计师即兴创作关键词,评委和观众对人工智能创作的作品印象深刻。只要具备足够的存储空间和计算能力,人工智能就拥有超越人类的学习和计算能力。通过借鉴人类已有知识,人工智能可以轻松超越个体人类。就个体权利被侵犯而言,尽管人工智能的智能可以超越人类并完成人类无法完成的任务,但当人工智能侵犯人类权利时,它却无法像一个有完整民事行为能力的人一样承担应有的后果。针对人工智能作为客体的侵权赔偿制度的确立,需要对责任进行明确划分,并建立相应的赔偿制度。随着人工智能技术的不断发展和广泛应用,例如在自动驾驶、医疗诊断等领域,其可能引发的侵权事故也越来越多。这些侵权可能涉及到人身伤害、财产损失等方面,因此需要建立起一套完善的赔偿制度,以保障受害者的权益。在确立赔偿制度时,首先需要对责任进行明确划分。这涉及到人工智能的设计者、制造商、使用者等多个方面。设计者和制造商需要承担因设计缺陷或制造缺陷而导致的损害责任;而使用者可能需要承担因使用不当或违规使用而引发的侵权责任。对责任的明确划分有助于明确责任主体,从而更好地进行赔偿。
2. 人工智能应作为侵权责任的法律客体
人工智能是对人类智能的模拟。虽然人工智能技术在模拟人类解决问题的能力方面取得了长足进步,但人工智能缺乏自我意识。人工智能无法达到人类的意识,因为人类的意识活动是生理和心理过程,是社会的产物,具有主观性和能动性。而人工智能则是由人类控制的机械的、无意识的过程,缺乏社会属性和人的主观能动性 [1] 。
这些活动是超出单个人类个体能力范围的,但人工智能却可以轻易胜任。如果给予人工智能以人类的人格和情感,它就有可能成为真正意义上的人,并取代人类成为法律主体。然而,由于人工智能并非自然人,它不具备法律主体的地位。应适用“有限法律人格”的概念来界定人工智能——其本质上是一种工具,而非法律主体 [2] 。虽然人工智能可能具备一定的独立行为能力,但不应完全赋予其法律主体地位。相反地,鉴于其受限的法律人格,应受到特定法律规范的限制 [3] 。例如,对人工智能管家和善待服务人类的人工智能保姆应当进行严格保护。人工智能所能承担的后果是有限的,人工智能管家、保姆和工人无法承担相应的责任。因此,不应完全赋予人工智能法律主体的地位。如果人工智能成为法律事件的主体,在发生严重事故导致死亡或需要侵权赔偿的情况下,人工智能主体应该如何承担责任? [4] 作为流水线生产的产品,人工智能缺乏赔偿能力,因此主要责任应由人工智能的生产者、制造者和设计者承担。负有责任的个人、团体和公司必须赔偿受害方的所有损失。
由人工智能承担侵权责任,表面上简化了归责程序,实际上并不能解决责任认定和承担的困难。因此,它与生产者、销售者和使用者以各种身份分担责任。但是它们不会出现人类意义上的过错,这意味着有必要进行技术评估以确定责任,此外,指导人工智能的行为模型和参数是由生产者设计和编程的,这就为他们提供了逃避责任的机会,尤其是在他们的方法不透明的情况下。这可能会导致生产商产生投机心理,他们可能会匆忙将未经测试的人工智能系统推向市场,以便抓住趋势或需求。这不仅会损害整个人工智能产业,还会危及用户的权利和安全。重要的是要记住,虽然人工智能系统可能拥有明确的所有权,但它们并不拥有与独立实体相同的法律权利和保护。因此,赋予人工智能的任何责任最终都要由公司和个人等传统法律实体来承担 [5] 。
3. 人工智能侵权责任的分类
3.1. 人工智能产品缺陷造成的损害
根据我国《中华人民共和国产品质量法》第四十六条的规定,产品缺陷是指危及人身和财产安全的不合理危险,以及与保障健康、安全的国家标准或行业标准不符的情况构成的缺陷。由于人工智能产品在结构上可能存在不完善性,出厂时可能存在缺陷,或者在使用过程中存在风险。这种情况可能会给用户造成不必要的损害或其他损失。即使没有发生意外,由于人工智能产品在系统和设计上存在漏洞,对用户进行赔偿也是应当的。后续的系统升级不应该掩盖错误或让不合格的产品流入市场。消费者不应该在未知的情况下使用不安全的产品。人工智能造成的问题是不可预测和无法测量的。因此,基于上述原因造成的损害应根据《中华人民共和国侵权责任法》第六条的规定,由产品的研发、制造、生产和系统设计的责任方承担无过错责任。
人工智能产品的缺陷问题不仅仅局限于其物理组成部分,还包括软件算法和数据处理过程中的错误或不足。例如,如果一个人工智能系统因为训练数据集的偏差导致不公平的判决或建议,那么这种偏差也可以被视为一种缺陷。因此,人工智能产品的评估和监管需要超越传统的物理和功能检查,包括数据质量、算法的透明度和可解释性等维度。
3.2. 人工智能产品完全自主行为造成的损害
在完全自主行为的情况下,当用户未进行干预,而由人工智能系统的独立决策和行为造成损害时,对此损害的责任归属引发了法律和伦理上的重要讨论。负责系统的研究、制造、生产和设计的实体应承担所有侵权行为和相关赔偿的全部责任。结合《中华人民共和国民法典》(以下简称《民法典》)第一千一百七十九条的内容,因人工智能产品造成他人损害的,生产者负责赔偿损失。虽然该条文直接关联产品缺陷,但对于完全自主行为造成损害的情形,提供了对生产者责任的一般原则。这意味着,在诸如自动驾驶车辆造成事故或人工智能系统提供的医疗诊断导致患者受伤或死亡等情况下,系统的制造商或开发者需对所有损害承担责任 [6] 。
然而,完全自主的人工智能行为引发的法律责任问题触及到了责任归属和伦理决策的核心,尤其是当人工智能系统的决策超出人类的预期或控制范围时 [7] 。在这种情况下,责任的分配变得复杂,涉及到对人工智能“自主性”的理解以及制造商和用户对于系统行为的可预见性和控制能力的考量。因此,有必要探讨和建立新的法律框架,《中华人民共和国刑法》(以下简称《刑法》)第二十五条,对于单位犯罪提出了规定,虽然主要是针对单位而言,但对于人工智能引起的某些刑事责任问题,如人工智能作为一种工具被用于犯罪,可能间接提供了责任归属的参考。以明确技术自主性与人类责任之间的界限,确保责任的公平合理分配。
3.3. 人工智能产品半自动自主行为造成的损害
在半自动自主的人工智能系统中,用户基于系统提供的建议和推荐进行决策时,可能出现判断失误,导致严重的后果,如人员伤亡。在这种情况下,侵权责任可能不仅涉及人工智能系统的提供者和制造商,还可能涉及使用这些系统做出决策的个人或实体。例如,在企业法律事务中,人工智能系统可能提供风险条款的识别和替代建议,但最终的决策权仍然掌握在人类法律顾问手中。这表明,在半自动自主的系统中,责任可能需要在人工智能系统的提供者或制造商与用户之间共同分担。这种共同责任体现了一个重要原则:当人工智能系统和人类共同参与决策过程时,两者都可能对结果承担一定的责任。尽管人工智能系统的制造商可能因技术不成熟或缺乏经验而存在过失 [8] ,但这种过失并不直接构成《刑法》中定义的犯罪行为。根据《刑法》第三十条的解释,只有在有组织、策划或实施危害社会行为的情况下,才可依法追究刑事责任 [9] 。这意味着,在半自动自主系统引发的损害事件中,追究刑事责任需要明确行为人的主观过错和行为与结果之间的直接因果关系。
因此,对于半自动自主行为造成的损害,法律责任的界定需要综合考虑人工智能系统提供的建议或推荐的准确性、用户对这些建议的依赖程度以及用户自身的判断和决策过程。在这个过程中,制造商、提供者和用户之间的责任可能需要根据各自的过错程度、行为的可预见性和控制能力等因素进行合理分配。这要求对现有的法律框架进行审视和调整,以适应人工智能技术的发展和应用,确保法律责任的公平和合理分配。
3.4. 人工智能造成的数据隐私泄露
在当前数字时代,大多数人工智能系统,特别是深度学习的搜索算法,能够对用户行为和网络浏览模式进行精确分析和研究。因此,这些人工智能系统能够根据特定消费者的喜好提供个性化广告。例如,在购物平台上,可以自动向客户推送与聊天时提到的关键词相关的产品。在购房者进入购房大厅时,需要接受面部扫描以进行人脸识别。然而,这些便利性背后隐藏着数据隐私泄露的风险。个人信息的收集和处理,如果没有得到适当的管理和保护,可能会被不法分子盗用,从而造成隐私侵权,这种做法可能会引发隐私问题,因为这些个人信息可能被不法分子盗用 [10] 。随着人工智能技术越来越复杂,潜在的隐私侵犯风险也相应增大。这不仅包括直接的数据泄露,如个人信息被未经授权的第三方访问,也包括间接的隐私侵犯,如通过数据分析不当地揭露个人偏好或身份。因此,一旦发生数据泄露或隐私侵犯,根据法律原则,负责产品开发和设计的实体应承担全部侵权责任,并对所有受影响的当事人进行赔偿。
这要求人工智能系统的开发者和部署者不仅要在技术层面上加强数据保护,比如采用更安全的数据加密技术和访问控制机制,还需要在道德和法律层面上承担起保护用户隐私的责任。根据《民法典》第一千零三十三条:涉及个人信息保护的原则,要求个人信息的处理应当遵循合法、正当、必要的原则,包括但不限于透明地处理个人数据,明确告知用户数据如何被收集、使用和共享,以及提供给用户对自己数据的控制权。
4. 人工智能侵权责任划分与赔偿问题的解决路径
4.1. 建立相关保险机制,解决赔偿问题
为解决由人工智能造成的损害,与《中华人民共和国保险法》相结合建立一个保险机制显得尤为重要。鉴于人工智能作为一种高端、新兴科技产品的不可预测性,包括其自主性和对正常因果关系识别的干扰,这使得侵权责任变得更加复杂。因此,在人工智能产品领域应引入强制责任保险,要求所有人工智能产品的制造商和部署者在推向市场时提供相应的责任保险及至少一年的损失保险,同时提供质量保证来预防产品缺陷。这种保险不仅能保护潜在的侵权人,如制造商和部署者免受重大责任风险的影响,同时确保受害人能够获得足够的赔偿。
此外,采用严格责任原则,使得受害人在新技术导致的损害发生时,无需证明侵权人过错即可获得赔偿,从而大大降低了索赔难度并加快赔偿过程。严格责任还保留了追偿权,允许首先提供赔偿的一方从其他责任方追回部分或全部赔偿金。为了应对由于人工智能的特性,如自主性和智能系统对因果关系的干扰而可能引起的未知或无法通过常规保险覆盖的损害,建议设立赔偿基金,为受害者提供额外的安全网。
消费者在初次使用人工智能产品过程中,如发现产品存在缺陷或损坏,应能够轻松地与公司客服沟通,请求维修或更换新产品。人工智能企业不仅应为消费者提供上述保险,还应承担因产品缺陷、完全自主行为和半自主行为导致的损失和事故的侵权责任和赔偿义务。通过这样的保险和赔偿机制,可以确保消费者权益得到有效维护,同时也鼓励人工智能行业的负责任发展。
4.2. 设置人工智能自动检索开关
在人工智能领域和监管问题上,确保为用户提供最大自主权并为其提供明智选择的选项是一项至关重要的任务。剥夺或限制这种选择权可能会对个人权益造成不利影响,甚至可能引发法律问题。在处理利用人工智能算法推送信息和保护个人数据隐私之间的关系时,需要找到一个平衡点。如果软件的编程过于侵扰性或默许未经请求的数据收集,可能会导致个人隐私受到侵犯,并可能对个人声誉和地位造成不可挽回的损害。在这种情况下,确定谁是侵犯行为的责任主体至关重要。当产品或服务提供商并非直接侵犯者时,可以通过采取积极措施来保护用户数据和加强产品安全性来减少潜在危害。
为此,提议设立一个人工智能自动检索开关,允许用户选择是否允许系统后台收集其个人信息。这个开关将为用户提供明确的选择权,以决定他们的个人数据是否可以被用于提高服务质量或个性化推荐等目的。通过实现这一功能,软件不仅遵循《民法典》第一千零三十三条个人信息保护原则的合法性、正当性和必要性和明确同意这两点来处理个人数据,而且增强了用户对自己数据隐私的控制权,有效避免了未经授权的数据访问或收集,进一步提高了数据的安全性和隐私保护水平。这些措施可以包括实施数据加密、安全漏洞检测和定期备份等措施。
4.3. 建立人工智能完全和半自动自主的法律框架
1) 自主性的法律框架主要取决于以下三个因素:人工智能系统是产品还是服务。这一分类影响责任归属和适用的法律规则,如果人工智能系统被认为是产品,那么在产品设计缺陷导致损害的情况下,可能会适用产品责任法。
2) 如果涉及刑事犯罪,所需的主观故意是什么。如果涉及刑事犯罪,人工智能程序可能会根据Gabriel Hallevy提出的三个法律模型(即实施者–通过–他人;自然–或–可能–后果;直接责任)进行考虑。在《刑法》中,实施者–通过–他人这个模型与“间接犯罪”有一定的联系。间接犯罪是指行为人通过利用他人(未成年人或不具备刑事责任能力的人)作为工具来实施犯罪的情形。如果将人工智能视为一个“工具”或“媒介”,那么人工智能的开发者、部署者或操作者可能被视为通过人工智能间接实施犯罪的行为人,从而根据《刑法》承担责任。这要求证明行为人预见或应当预见到通过人工智能行为可能导致的犯罪结果。自然–或–可能–后果这个模型涉及到犯罪结果的可预见性。在《刑法》中,对于因过失犯罪的情形,如果一个人的行为自然而然或很可能导致某种社会危害结果,而行为人未能采取措施防止这一结果的发生,该行为人可能因过失而承担刑事责任。将这个模型应用于人工智能,如果人工智能系统造成的损害是开发者、部署者或操作者所能预见或应当预见的自然后果,那么这些主体可能因过失导致的损害结果而承担责任。直接责任模型在《刑法》体系中的应用面临较大挑战,因为《刑法》基本上是基于自然人和法人承担刑事责任的理念。将人工智能视为可能直接承担责任的主体,需要对刑法中关于责任主体的定义进行根本性的拓展。当前,《刑法》尚未明确将人工智能系统作为独立的法律主体,因此,直接将责任归于人工智能系统本身,而不是其背后的自然人或法人,与现行刑法原则不符。
3) 人工智能系统的局限性是否已经与购买者进行沟通。如果人工智能系统的局限性已经告知购买者,那么在发生损害时,购买者可能会根据这些局限性进行辩护。
4.4. 建立人工智能问责制度,解决侵权责任划分问题
在快速发展的人工智能领域,构建详细的问责机制显得尤为迫切,特别是在涉及复杂人工智能系统的不幸事故,导致损失或损害的情况下。可以设想,人类认知和决策的固有复杂性与基于神经网络和其他先进计算模型运行的复杂人工智能系统之间存在类比关系。人类要准确无误地解释某个具体决策背后的错综复杂的思维过程和动机,即使并非完全不可能,也是非常具有挑战性的。同样,全面剖析和理解人工智能系统的运行逻辑也是一项艰巨的任务。从本质上讲,这构成了提炼人工智能系统内部错综复杂的相互作用和相互依存关系所固有的最大挑战,特别是在需要精确定位明确的因果链和机械决定因素时,这无异于揭开一个名副其实的“黑匣子”的内部构造。此外,正如人们永远不会仅凭粗略地评估一个人的外在行为就将其完全归咎于他一样,我们也必须深入研究,挖掘可能导致特定人工智能系统行为的系统性因素和背景,从而获得更深刻的理解。设立“黑匣子”机制在人工智能系统中的目的,是为了通过记录和分析人工智能的决策过程,来揭示决策是完全自主产生的还是在人类的半自主指导下完成的。这种机制能够为责任的精确划分提供关键信息,尤其是在出现争议或损害事件时。
一是通过在人工智能系统中集成“黑匣子”机制,可以记录下系统在决策过程中的每一个步骤,包括它接收的输入数据、处理的逻辑、输出的决策依据等。这种记录不仅增强了系统的透明度,也为后续的审查和分析提供了可靠的数据基础。二是“黑匣子”机制通过详细记录决策过程中的关键信息,有助于开发和应用新的工具和方法来解释人工智能的决策逻辑。例如,利用可解释人工智能技术,可以解析“黑匣子”中的数据,明确哪些决策是系统自主作出的,哪些则是基于人类指令或干预的结果。三是为了确保“黑匣子”机制的有效性和一致性,需要制定和推广一套标准化的框架和指南。这包括定义哪些数据和信息应当被记录、如何安全地存储和访问这些数据,以及如何正确解读和分析这些信息。同时,应推动行业内的广泛采纳,确保不同的人工智能系统都能以标准化的方式记录决策过程。四是设立或指定独立机构负责监督人工智能系统中“黑匣子”机制的实施情况,评估其效果,并提供认证。这个机构也可以负责在发生争议时,利用“黑匣子”中的数据进行独立的分析和评估,为责任的划分提供权威的依据。
构建人工智能的“黑匣子”至关重要,把握这一细微差别,可以确保人工智能系统中“黑匣子”机制的有效运作,从而在复杂的决策情况下,更容易地分析出人工智能的行为是完全自主产生的,还是在人类的指导下完成的。这对于在发生损害或争议时,公平、公正和准确地划分责任至关重要,同时也增强了人工智能系统的社会信任度和接受度。
5. 结语
科技的迅速发展带来了人工智能的广泛应用,改变了我们的生活方式并提出了新的法律和道德挑战。人工智能的普及引发了对潜在安全漏洞和隐私泄露的担忧。面对这些挑战,迫切需要不断完善和升级人工智能技术,确保其带来的益处远大于潜在风险。同时,制定和执行专门针对人工智能相关的安全和隐私威胁的严格法规和法律变得尤为重要。本文通过分析人工智能作为法律客体所承担的侵权责任问题,探讨了人工智能在自主性和半自动性行为下引起的法律责任问题,包括产品缺陷、完全自主行为以及半自主行为造成的损害等方面。我们指出,尽管人工智能具有独立的行为能力,但不应完全赋予其法律主体地位,而是应根据其行为的自主性程度和具体情况,合理划分责任。为解决由人工智能引发的侵权责任问题,提出了建立保险机制、人工智能自动检索开关以及完善人工智能问责制度等解决路径。这些措施旨在通过法律和技术手段,确保人工智能的健康发展,保护消费者和公众的权益,同时促进人工智能生态系统的健康发展。
除了上述措施,还应加强对人工智能技术发展的伦理审视,推动跨学科研究,深入探讨人工智能技术与人类社会、法律和伦理之间的关系。此外,增强公众对人工智能技术的理解和认识,提升社会对新兴技术挑战的适应能力,也是促进人工智能技术健康发展不可忽视的方面。总之,随着人工智能技术的不断进步和应用领域的扩大,其法律和伦理问题将越发复杂。通过跨学科合作、法律创新和公众教育,构建一个更加公平、公正的人工智能治理框架,是我们共同面临的挑战和机遇。