1. 引言
科学技术日新月异,人工智能逐渐成为我国经济社会发展的新引擎。人工智能的实际应用十分广泛,深入人们生活的方方面面,从自动驾驶到智能家居,从数字化执法到智慧法院……智能技术的不断更新尤其为电子商务领域带来了一波爆发式的繁荣。人工智能在提高生产效率、降低成本、改变人类生活方式的同时,也引发了一系列社会伦理和法律问题。一方面,随着智能技术的发展,越来越多的个人信息被收集和分析,用以提供个性化的服务,然而精准的兴趣定位依托于对用户大量的数据收集,而对人工智能技术的过度授权可能会侵犯公民的个人信息、个人数据和个人隐私等新型数据权利;另一方面,算法系统本身带来的法律风险,如“算法黑箱”、“算法歧视”、“算法垄断”、“算法控制”等,也可能对公民的权利保障造成一系列的负面影响;此外,人工智能技术自身的不成熟也可能会带来一系列的安全风险和法律纠纷。2021年百度旗下的“萝卜快跑”服务平台正式推出了无人驾驶的网约车服务,并且已经在北京、深圳、武汉、上海等地广泛使用,真正实现了“无人驾驶”。相关负责人声称,这种“无人驾驶”的汽车都配备了“云代驾”远程监控车辆,对正在行驶中的汽车进行实时监控,当发生自动驾驶系统无法应对的路况时,“云代驾”会及时接管,远程控制车辆。然而,2024年1月31日,武汉一辆无人驾驶的汽车违规停在十字路口中央,面对交警的指挥,自动驾驶系统“无动于衷”。
面对这些客观存在的安全隐患,立法的稳定性决定立法进程会滞后于人工智能技术的发展速度,且“人工智能+”环境下的电子商务纠纷,往往涉及多个法律领域,如何在具体案件中准确适用法律法规,也成为司法实践的一大难题。此外,面对人工智能技术的迅猛发展,有关人工智能法律地位和法律属性的争议越来越多,对整个以人类为中心的传统法律体系提出了严峻的挑战。
人工智能的不断发展对社会、经济、法律和伦理等各个领域产生了深远的影响,引起了全球范围内的广泛关注。为了应对这种影响,许多国家开始探索如何在法律框架中对人工智能进行规制,以确保在科技发展、公共利益和公民权利之间取得平衡。我国的法律和国家政策对人工智能的法律风险规制具有重要的指导意义,因此如何界定人工智能的法律地位、确立人工智能发展的限度以及如何在法律框架内对现阶段人工智能的发展进行合理规划,确保电子商务健康、有序、可持续地发展,也成为我国社会面临的一项重点课题。
2. “人工智能+”对电子商务领域的冲击
2.1. 现阶段对电子商务相关主体的负面影响
2.1.1. 算法歧视:平等权
我国宪法规定公民在法律面前一律平等,同时对妇女儿童等弱势群体予以特殊保护,以实现真正意义上的平等。在数字化时代,人工智能已成为我们生活的一部分,从个性化推荐到信用评估,电商平台中涉及到的智能技术几乎无处不在。然而,这些看似中立、高效的算法却可能隐藏着歧视,对消费者平等享有权利产生负面影响。
一方面,人工智能缺乏人文关怀,通过数据分析和模型预测,追求绝对平等,容易忽视消费者退换货、取消订单的现实因素,进而将责任分配给消费者,扣除消费者的信用积分,这本身就是一种对实质平等的忽视。另一方面,由于有缺陷的数据收集、整合以及缺乏合理有效的监督和制约,人工智能在设计和开发过程中,可能会有意无意中受到歧视性因素的影响,对特定群体或个人进行不合理的区别对待,这也是消费者所常见的“大数据杀熟现象”。这些歧视行为都会对消费者平等享受合法权利产生不利影响([1], p. 37)。此外,随着人工智能系统在招聘、招生、贷款审批等环节中扮演着越来越重要的角色,如果这些系统存在算法歧视,对某些群体或个人产生不公平待遇,那么部分主体在竞争的起点上就遭受不公平对待,加剧社会不平等。
2.1.2. 算法控制:劳动保障
我国宪法规定公民享有劳动的权利和义务。“人工智能+”环境下电商平台的兴起也促进了共享经济和物流经济的发展,为很多人提供了更广阔的就业空间。人工智能可以通过数据分析进行资源匹配,为供需双方提供快速准确的连接;人工智能还能预测用户需求,提前调整共享资源分布,减少资源的闲置率和用户搜索成本。
然而,随着共享经济迅速兴起,人工智能通过算法控制淡化了平台公司和从业人员的雇佣责任,大数据系统和消费者在某种程度上代替了公司对平台从业人员的管理。以外卖骑手和网约车司机为例,人工智能通过算法操控,根据骑手和网约车司机的速度、当前订单的拥挤程度、订单距离、接单速度等为骑手和网约车司机提供个性化定制,不断削弱这些从业人员的反抗意愿,让他们在潜移默化中服从并参与到对自身的管理过程中[2]。当外卖员为了准时将外卖送达、免受差评而闯红灯、无视交通规则时,实际上就是无形的屈从于人工智能的控制之中了。当前的国家政策侧重关注充分就业、获取劳动报酬、劳动合同确认等方面的问题,缺乏对共享经济,尤其是“零工经济”中从业人员身份的确认和有力保障,这也使得“零工经济”从业人员只能屈服于算法霸凌,难以对抗算法对劳动自由的限制和网约平台的不合理安排[3]。
2.1.3. 算法黑箱:数据隐私
人工智能的发展依托海量的数据,大数据和个人隐私之间实际上形成了一种“反馈循环”,平台收集的数据越多,越能够为目标客户提供契合的定制服务,用户的个人隐私保护也就越弱([4], p. 177)。人工智能系统在建立数据模型和进行数据分析时,需要收集和处理大量的个人数据,包括姓名、年龄、性别等敏感信息。这些数据容易在未经授权的情况下被滥用,人工智能可以轻易通过对庞大数据的精密分析,挖掘出个人生活习惯、兴趣爱好等隐私信息,向终端用户提供个性化定制信息,围建“信息茧房”,加深“数字鸿沟”。
此外,人工智能技术在处理数据时可能存在漏洞,加上数据隐私安全的法律保障不足和监管不到位也会导致数据隐私受到威胁。例如,人工智能模型可能因为算法缺陷或数据不平衡等问题,对某些特定群体的数据进行错误的分析和处理,从而导致隐私泄露。人工智能系统的安全性也是导致数据泄露的因素,黑客可能通过攻击人工智能系统,窃取其中存储的大量个人数据,造成严重的隐私泄露事件。目前我国宪法并没有规定数字人权,但是在民法典中已经涉及到了对公民个人信息的保护,也可以通过宪法关于人格尊严的相关规定对公民在数字社会中的权利进行保护。
2.2. 未来人工智能发展对电子商务的冲击
近几年,武汉、重庆等地将“无人驾驶网约车”投入市场,但是随之而来的是在实际使用中出现了个别的“智能失控”现象,此时造成的法律后果应当由谁承担?如果未来智能技术突破“奇点”,人工智能出厂后即完全能够凭借自主学习,代替人类从事相关行业,此时的法律风险又将由谁负担?将人工智能作为责任主体是否会成为研发者、使用者等相关人类主体推卸责任的借口?因为这类高阶人工智能造成的一系列财产性损失如何进行填补?
对于人工智能,学界尚没有一个统一明确的定义。玛格丽特·博登教授认为“人工智能就是让计算机完成人类思维能做的各种事情”[5]。斯图尔特·拉塞尔和彼得·诺维格教授从思维和行为、实际表现和理想表现两个维度排列出AI的八种定义[6]。我国的朱福喜教授指出,字面意义的人工智能是指“智能的人工制品”,主要是研究如何将人的智能转化为机器的智能[7]。2021年全国信息安全标准化技术委员会将人工智能定义为“利用计算机或其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或扩展”[8]。
与传统的机器不同,人工智能的一个鲜明特征在于其所具有的自主学习能力。普通机器系统只是一种具有识别功能的“自动执行装置”,而人工智能系统建立在“算法”的基础上,能够通过传感器接收和处理信息,并且根据现实中的情况,与周围环境进行互动([4], p. 31)。尼克·波斯特洛姆教授将人工智能的核心特征概括为两个方面:“获知能力”和对信息的“处理能力”[9]。人工智能的这种对信息的接收和处理,和传统机器系统只能被动接受指令和按事先编制程序处理不同,理性的人工智能体是“自主的”,能够自身的深度学习,来填补认知空白或者纠正有误的知识问题。这种自主的深度学习的能力已经使得人工智能在众多领域代替甚至是超越人类,而随着人工智能技术持续更新和智能体更加自主、更加智能,法学界也在持续关注和思考如何界定目前以及未来人工智能的法律地位。人工智能能否成为责任主体?什么样的人工智能能够成为责任主体?成为责任主体的人工智能能够拥有哪些权利承担哪些责任?这些接踵而至的问题终究需要在法律层面进行讨论。
2.2.1. 法律主体的界定松动
为了更好地应对金融市场的法律风险,法人和非法人组织被民事法律规范纳入主体范畴,尽管学界对于民事主体的构成要件仍然没有一个统一的标准,但也已经突破了“只有生物人能够成为民事主体”的限制[10]。随着新兴智能技术的不断发展,人工智能对人脑的仿制程度越来越深,其自我辨识能力和独立决策能力也不断提高,甚至已经出现了脱离人类控制的侵害行为。同样是人类创制出来的主体,人工智能是否能够拥有法律人格,成为权利义务主体?关于这一点,学界众说纷纭,主要可以分为否定说和肯定说两种。
2.2.2. 否定说
否定说的主要立场是“智能工具说”,这一观点是从现阶段的智能技术水平和责任分配的角度提出的([1] p. 83)。从智能技术发展水平来看,学界普遍认为可以将人工智能的发展划分为三个阶段:限制领域人工智能(弱人工智能)阶段、通用领域人工智能(强人工智能)阶段和超级人工智能阶段。目前人工智能尚处在限制领域人工智能阶段,该阶段的人工智能在非故障情况下大多按照既定的编制程序内运行,即使具有一定的自主学习能力,本质上仍然受人类的控制,未脱离工具属性。否定说认为,人工智能的“奇点”遥遥无期,超级人工智能技术甚至处于“真空”状态,在这种情况下承认人工智能的主体地位,不仅会动摇现有的法律体系,还会使人工智能成为人类逃避法律责任的借口,就目前以及未来一段时间科学技术的发展水平而言成本过高。因此否定说主张人工智能归根结底仍然是服务于人类日常工作和生活的工具,是权利的客体,并不具有法律人格。
然而随着智能技术的不断发展,人工智能的自主性和深入学习能力不断增强,辨认能力、控制能力也在不断提高,这一系列变化都在表明人工智能对人脑功能的仿照程度不断加深甚至有超越人类大脑智慧的可能。目前的人工智能技术已经实现了从自动机械装置向初步具有自主判断能力的技术跨越,未来的科学技术也完全有可能制造出具有高度自主意识的强智机器人,迎来真正的“强人工智能时代”;其次,随着“索菲娅”、“帕罗”这一类高阶智能体的出现,人工智能的人为控制因素已经越来越弱,智能体凭借其自主学习能力和结构特点,在学习能力和速度方面已经展现出超越人类的优势。如果人工智能能够更深层次的感知人类的情感、逻辑、推理等更为复杂的能力时,这种自主学习过程就会类似于幼儿成长,受后天环境等诸多因素的影响,极有可能带来未知的法律风险。当人工智能以不可预测的方式进行自主学习,进而对人类造成不利影响时,将人工智能的侵害行为轻易地认定为产品的缺陷或者是产品质量事故似乎并不合适[11]。此时对设计者、制造商和销售商的注意义务无法过于苛责,但是如果不加以规制,又会造成权利保护的空白。由此可见,纯粹的否定说对人工智能侵权一类的问题已经很难做出全面的回应。
2.2.3. 肯定说
持肯定说的学者认为,法律人格并不必然以“生物人”为基础[12]。当人工智能能够和环境进行互动、能够通过自主学习能力形成自己的逻辑思维体系和群体生活能力时,就可以被赋予法律上的人格。换言之,如果人工智能能够具有独立的自我意识和独立的行为能力,能够认同并适应群体生活和社会公共利益时,就可以承认人工智能的主体地位。肯定说的学者先对人工智能进行分类,认为对于工具属性突出的弱人工智能,无需赋予其法律人格;而对于具有深度学习能力,能够独立决策并自主实施法律行为的强人工智能,应当拟制其法律人格并要求其承担相应的法律责任。一方面,人工智能在现实生活中所体现的主动性和学习能力足以表明,人工智能已经不是纯粹的、受人类支配的客体[13];另一方面,学界和实务界并没有适用各类法律主体的通用标准。就目前的理论基础和司法实践而言,当人工智能具有更高的辨认能力和独立决策能力时,意味着人工智能客观上能够脱离人类掌控而独自实施法律行为,主观上也可以进行承担责任的价值判断,因此人工智能具备成为法律主体的可能性和必要性。主体说站在发展的角度,关注到人工智能技术未来的发展动向,但同时主体说也引发了人们对“机器人意识”、“机器人权利”、人工智能伦理等各个方面的争论,部分学者认为,尽管人工智能在某些领域表现出较高的智能水平,但是仍然无法替代人的主观能动性和情感认知,因此将人工智能视为法律主体也存在一定的合理质疑。
2.2.4. 小结
目前智能技术处于弱人工智能阶段,人工智能仅具有浅层自主学习性,尚未摆脱人为操控性、辅助性等工具特征。然而科学技术日新月异,超级人工智能的普及并非遥遥无期。类比克隆技术的发展,未来的人工智能完全能够达到高度仿照人脑进行活动的程度。超级人工智能会超越程序员事先设定的程序,凭借自身深度学习能力对外部世界进行独立的感知和思考,在不受人类控制和影响的情况下形成自身独立的思维体系和逻辑观念。假设社会并不禁止这类高度智能化技术的存在并允许其继续发展,那么人工智能就完全具有仿照人类精准辨认、控制自己的行为和独自实施违法犯罪行为的可能性。
为此应当防患未然,在完善现行法律体系的同时,适当结合人工智能技术的特征对未来人工智能发展趋势加以考虑,减少未来科技发展带来的未知风险。一旦人类真的研制出超越编制程序的人工智能,就意味着人工智能的发展已经不再受人类编程的控制。人类对这样的超级人工智能既不加以事先规范,也无任何事后措施,就会出现法律漏洞,给自身创造一个难以驾驭的劲敌的同时造成难以估量的危害。因此应当正视人工智能未来主体地位,承认未来超级人工智能成为责任主体的可能性,避免人类的权利和利益暴露在未知的危险中,实现技术发展与法律规范之间的相对平衡。
3. “人工智能 + 电子商务”困境的解决方案
人工智能嵌入电子商务领域在给人们的生活带来便利的同时,也带来了相应的法律风险。面对算法异化和对公民权利产生的负面影响,应当及时调整传统的规制思路,及时建立人工智能环境下的新型规制模式。
3.1. 将法律价值嵌入“人工智能 + 电子商务”的设计环节
一方面,应当明确设计研发者在研发阶段的法律嵌入义务。目前仍然处于弱人工智能阶段,人工智能仍然反映着设计研发者的主观意图和价值判断,并不具备独立承担法律责任的能力。因此应当明确设计研发者在数据采集和模型构建、训练的过程中嵌入法律价值的义务,使人工智能在投入使用后的自主学习和系统更新能够契合法律价值。
另一方面,人工智能设计时应当充分考虑公众的合理需求,建立开放包容、平等的算法运行机制。人工智能的设计要建立在多元化基础上,完善电子商务领域人工智能责任判定的场景输入,加强对弱势群体的保护,充分考虑新兴共享经济中底层从业人员的劳动权利保障和人工智能技术在数据收集、处理和应用过程中的隐私保护要求,切实保护从业人员的劳动自由和终端用户的数据隐私。
3.2. 构建完善的“人工智能 + 电子商务”的责任框架
在网络空间领域政府的管控往往难以面面俱到,加之政府和平台的运营商之间信息不对称,平台运营商掌握着核心数据和技术,这些数据和技术既涉及运营商的商业秘密,也涉及终端用户的个人隐私,因此政府接手监管的难度较大。现阶段普及的智能程序正常情况下是根据事先编制的程序进行相应的行为,未脱离工具属性。尽管最终的责任承担者是人类,但由于人工智能的介入,其不确定因素增加,因此需要结合人工智能的特征,结合传统归责理论明确相关主体的法律义务和相应责任。
因此应当完善我国关于电商平台相关主体责任的制度。例如对我国《刑法》第二百八十六条“拒不履行信息网络安全管理义务罪”的适用范围和条件作出进一步解释,既为网络平台运营商提供一个明确的自我定位,同时也避免因前置法设定义务的膨胀而导致“网络平台服务提供者”承担不适当的刑事责任,促进民行刑的合理衔接[14]。
3.3. 聚焦技术发展,推动“人工智能 + 电子商务”安全融合
智能技术更新迭代,人工智能已经渗透到社会运行的各个领域,各种形式的电商平台也相应出现,为了推动智能技术安全、稳定的融入电子商务领域,应当聚焦技术研发,提高智能技术的安全性和可靠性,同时不断厘清人工智能的准入范围,明确人工智能算法运行的界限,在数据和算法有必要和可能介入的领域给予公民充分的透明。
一方面,智能技术的发展是“人工智能 + 电子商务”安全融合的基础。应当聚焦技术研发,通过研究和开发新的安全技术和方法,完善电子商务的数据监管规则,及时发现并处理可能存在的安全隐患,减少数据泄露风险。
另一方面,划清人工智能的使用范围,是确保技术合理运用的前提。人工智能技术的应用已经渗透到各个领域,但过度的技术依赖可能导致人类丧失对某些领域的深入理解和掌控能力,同时也会过度暴露个人信息,加深智能算法对人类的支配程度。为此应当明确智能算法的准入边界,保护数据安全的同时实现人机协同,充分发挥人工智能的优势特征;此外,提高人工智能系统的可解释性和透明度,消除技术壁垒带来的数字鸿沟和黑箱操控,这也是增强社会公众对人工智能信任度的关键。将人工智能系统决策的底层逻辑透明化,帮助公民充分理解算法决策的运行机制,不仅有助于提高人工智能系统的可信度,还可以帮助用户更好地理解和使用人工智能系统,促进电商平台的进一步发展。
4. 结语
科技发展日新月异,电子商务也为国民经济提供了不小的助力,“人工智能+”也已经进入了从限制领域人工智能向通用领域人工智能过渡的时代。虽然目前的人工智能还无法具备与生物人相当的认识能力和意志能力,但其在特定领域已经引发了一系列法律和伦理问题,同时也对现有的法律体系提出了严峻的挑战。为了保障公民的基本权利和利益,促进电子商务的进一步发展,应当完善人工智能发展背景下的法律框架,在技术进步的同时,勾勒人工智能时代的法律面貌,推动电商经济的发展与法治建设的协同共进。