1. 问题的提出
数字经济时代正在到来,无线网络及移动设备记录着我们的行动轨迹,搜索引擎分析着我们的浏览痕迹,社交软件存储着我们的聊天记录,“这是最好的时代,也是最坏的时代”,将狄更斯名著中的开篇话语用来描述人工智能时代的宏伟蓝图再适合不过了。在万物互联的社会中,技术革新引发的法律、政策和伦理的话题刚刚开始 [1],算法从原先只存在于计算机领域中的晦涩难懂的专业术语,逐渐出现在主流媒体的讨论中。然则,随着算法在应用过程中暴露出来的算法偏见和歧视、算法黑箱和算法公共决策中的不透明等问题 [2],用算法透明来规制算法黑箱所滋生出来的算法权力也就被学者认为是对智能社会民主自由价值的维护及对不公正行为的规训 [3]。但是,另一方面,算法也是创新者的技术贡献,也是企业进行商战的利器,从商业秘密的定义来看,算法的确能够满足秘密性、价值性、保密性等构成要件,基于劳动价值论,将算法作为商业秘密保护具有正当性基础。
因此,在知识产权制度下,算法规制的主要矛盾表现为创新者对于维护算法竞争优势的重要价值与社会公众对于算法规制的迫切需求之间的冲突 [4]。法律是政府进行技术规制的重要工具,但法律不只是简单发挥工具意义,立法成本、执法压力、实践的复杂性都会增加法律运行的难度。目前学界对算法规制与保护的冲突与协调上,过度强调两者的剧烈冲突,却很少提出平衡两者的解决方案。大数据的技术革新应当是值得欢迎的技术变革,并且无论欢迎与否,它都以无法回避的速度迈进着,一味的回避只会导致落后。因此,本文拟重新理解算法的法律实践难题,寻找一种协调各方利益的适度透明。
2. 算法正义下孕育而生的算法规制
2.1. 算法应用引发的风险
首先,算法可能导致歧视与不公。算法以更具效率性及相关性的判断推翻了传统的决策方式,伴随而来的便是决策过程的公平性难以得到充分论证。其实,算法作为一种科学技术工具,其本身是保持价值中立的。但是很多情形下,决策者已将自身所追求的利益最大化的价值判断嵌入进算法中,导致算法的技术中立性发生了畸变,如美团、飞猪等众多应用软件被爆出“大数据杀熟”的丑闻。因此,算法在人为设计下会导致歧视。
其次,算法可能会侵害数据主体隐私权。数据对于算法而言具有重大意义,算法需要通过收集、挖掘数据进而对数据进行运算、整合最终作出决策,数据决定了人工智能所能发挥作用的深度与广度。这就导致算法在决策过程中对数据的分析与运用可能会逾越数据主体的同意范畴,侵害用户的隐私权。互联网企业近乎掌握着现代人们生活、工作及学习的一切痕迹,也在不间断地获取着所有动态数据,如此海量的数据收集蕴含着巨大风险及漏洞,数据主体隐私权的保护也面临着巨大挑战。
最后,数据主体的知情权无法实现。人类的选择权是参与一切事务的不可分割的部分,人应当是最终作出决策的主体。但在算法时代,人们都几近“自愿屈从”于这种看不见的力量,由这种看不见的算法代替人类进行决策,正如扎克伯格所说,我们正处于算法统治人的时代。
2.2. 算法透明原则可欲性
空间物理学家戴维·布林在《透明社会》一书中预言一个信息公开、相互监督的透明时代即将到来,但在帕斯奎尔看来,这一社会愿景并未实现,商业、金融和搜索领域中的权力人物采取了模糊战略和保密措施来巩固权力和财富,他们的非透明技术正在蔓延并且不受监督 [5]。算法黑箱滋生着前述众多的不公正行为,算法的不透明性也被认为是算法崛起所带来的最具威胁性的法律风险。美国大法官布兰戴斯法官曾指出,“阳光是最好的杀毒剂”。无论什么东西,躲在不见阳光的角落总是易霉的,尽管学界在探寻算法规制之道中各执己见,但被普遍认可的便是算法透明原则。
算法规制通常分为事前规制与事后规制,算法透明便是事前规制的代表,其通常指公开算法的代码、数据和决策等。其实,在政治、经济、及法学领域,透明原则的民主政治早已成为现代政府规制的一项重要准则。透明原则被认为对民主政治助益匪浅,主要体现在两个方面:首先透明原则增强了公权力机关的可问责性,其次可以保护公民的知情权 [6]。并且在我国公法领域,透明原则也有着多重体现,行政公开程序便是以透明原则为内核、贯彻服务型政府理念的重要制度 [7]。而本文所讨论的算法透明原则是透明原则在大数据时代的一个具体延伸,其不仅仅聚焦于公法领域的透明与信息公开,同样适用于私主体的算法权力规训,并且与传统透明原则类似,同样可以对算法操控者的问责及消费者知情权保护上发挥作用。从我国规制算法的实践来看,基于互联网平台经济的崛起,我国《电子商务法》也对平台运营中涉及算法部署事项明确了透明原则相应的法律责任,譬如,为电子商务平台的搜索算法设置了明示义务。域外角度来看,欧盟出台的《通用数据保护条例》于第5条关于个人数据处理原则中明确规定了透明原则。美国计算机协会下属的美国公共政策委员会(USACM)于2017年确定了一套规则,发布了关于算法透明和问责性的七条原则:知情原则、获取和救济原则、可问责制、解释原则、数据来源处理原则、可审查性原则、验证和测试原则,致力于解决算法应用引发的风险 [8]。
不难发现,基于透明原则法理上的延续性足以支撑其在算法领域的适用,并且域外国家诸如美国和欧盟也在算法透明原则上进行了有益探索,算法透明原则已经成为了国内算法规制的实践与理论讨论中的首要原则。
3. 算法商业秘密保护及障碍
算法透明势必带来信息的披露,而在信息披露过程中,将很有可能与私主体权利产生冲突,比如算法持有者对其研发算法享有的知识产权,此时算法的披露与保护均存在一定正当性基础,该如何去权衡同一客体之上存在的不同主体的利益主张?
3.1. 算法商业秘密属性
一旦承认法律有理由介入算法,此时讨论的关键问题便是:算法在法律上是什么? [9] 算法是能够用以筛选信息、寻找数据间的关系,将信息生成类别,进行信息分析的序列,简单来说,就是处理数据的一系列步骤与指示。目前学界对于算法的法律属性的讨论尚处起步阶段,现有的大部分研究均是着眼于如何防止算法霸权的规训之道,鲜有对于算法保护的探究。而美国在算法领域的研究目前仍是处于领先地位,作为判例法国家的美国已在一系列诉讼中对此作出了回应,一方面他们认同了“将算法视为言论”的做法,另一方面也有法官将特定算法视为商业秘密 [10]。笔者认为,依据商业秘密保护技术创新的重要特性,将算法作为商业秘密保护更为恰当。
算法是企业技术创新发展的驱动力,知识产权是激励及保护创新的重要法律制度。在版权与专利保护层面,算法本身不太满足权利客体的构成要件。如依据专利法基本原理,其不保护智力活动规则,而算法的本质仍属一种电子形式进行的智力步骤。而商业秘密同样是知识产权范畴的一种主要类型。《反不正当竞争法》第9条第3款将商业秘密定义为:“不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息和经营信息。”由此可知,立法者已经明示商业秘密的界定采用“秘密性、价值性、相应保护措施”三要件说 [11]。而算法同样满足该三要件:
首先,算法满足秘密性要求。秘密性需要同时满足两个标准即“不为相关人员普遍知悉”和“不容易获得”。对于被投入大量人力物力所研发并维护的算法,企业内部都会对此进行保密,外部人员无法从公开渠道获取。其次,算法具有价值性。价值性是指相关信息具有现实或潜在的商业价值,能为权利人带来竞争优势。对于互联网公司而言,开发者可以根据算法所呈现的规律作出决策获取高额的商业利润,因此算法具有巨大的商业价值,是创新主体“安身立命之本”。最后,算法亦符合“相应保护措施”的要求。一方面,内部研发人员通常都有各自分工,无法接触到完成的算法设计,并且还会签署保密协议等。另一方面,企业外部人员更是会受到一系列访问限制以及数据加密的措施,保证其无法获取到公司的核心算法。
3.2. 算法商业秘密司法实践中的认定
我国司法实践中,已有相关案例将算法认定为商业秘密进行保护。2017年北京知识产权法院审理的北京理正软件股份有限公司诉北京大成华智软件技术有限公司等侵害商业秘密纠纷一案中,认为涉案“管理信息系统”中的数据库表和存储过程、函数属于技术信息,构成商业秘密 [12]。并且2016年广东高院亦认定“心电算法”属于技术秘密 [13]。在美国,关于以商业秘密保护算法的主张同样收到法院的支持,开发者通常以商业秘密为由拒绝披露算法的决策过程。State v. Loomis一案中,法官便以商业秘密保护为由驳回了Loomis的关于智慧司法产品COMPAS算法公开的要求。并且,此非个例,在Viacom v. YouTube一案中,尽管审查计算机源代码是认定搜索算法是否存在不公正性的唯一方案,但法院同样以计算机源代码的商业秘密属性亟需保护为由拒绝了原告强制披露的请求。事实上,2020年9月,最高院发布的《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》也明确了与技术有关的算法、数据等信息可以认定构成《反不正当竞争法》中所称的技术信息。美国同样也在《统一商业秘密法》中为算法提供了保护 [14]。
综上,不管是司法实践或是法律要件分析,商业秘密都可以为算法提供相应的知识产权保护。
3.3. 算法透明与算法商业秘密间的冲突
基于算法正义的要求,算法应用需在法律规范下秉持公平、平等及正义价值,为了维持算法正义,避免算法黑箱,学界主要观点则是集中于使其透明化。但算法规制过程中同样需要回应实践中不同价值的张力,比如算法的商业秘密属性为算法提供了强有力的保护,不论从劳动价值论还是知识产权原理层面商业秘密保护模式都具有正当性基础。其中,前文提及的Viacom v. YouTube一案中法院便以商业秘密保护的要求拒绝原告关于公开被告源代码的要求。其中不乏有学者担心算法商业秘密会对算法透明产生法律障碍,并且形成对企业的算法霸权提供保护伞 [15]。但如果我们坚持着完全透明原则,这或许宣告着大数据技术革新的终结,算法透明原则仅是对抗算法黑箱的权宜之计,暂时无法通过现有社会规范设计出一套一劳永逸的算法规制方案,建立算法监管制度并非要实现完全的算法公开。如何在“完全算法保密”和“完全公开披露”之间寻求利益冲突的平衡关系,才是现阶段应该思考的问题。
4. 利益平衡原则下算法透明的合理定位
4.1. 智能社会下私主体权利之间的利益平衡机制
妥当的算法规制是保障智能社会算法良性运行的根基。在面临算法与商业秘密产生的冲突时,多有学者从利益位阶进行分析,认为商业秘密代表着私人利益,而算法透明则是社会公共利益的体现,由此得出商业秘密应让位于算法透明,从而否定商业秘密作为企业进行算法保护的可能性。但这种分析路径是存在疏漏的,《反不正当竞争法》的立法目的在于鼓励保障公平竞争,维护社会主义市场经济的健康发展,并且《民法典》同样规定商业秘密为知识产权的客体之一且承载着激励创新的社会价值,由此可以得出,对于算法以商业秘密进行保护并非是单纯的私人利益保护,其背后承载着鼓励竞争、激励创新的制度价值,因此私人利益让位于公共利益的逻辑在算法规制的制度构建中并不成立,我们需要寻求新的指引路径。
新制度的构建离不开有别于传统工农业社会的智能社会的法理指引 [16]。伴随着大数据时代日新月异的发展,算法呈现出了技术性、融合性、隐秘性、价值性的特点,对于如何构筑适应算法特性的算法透明原则,保障自由创新与公共秩序、人们基本权利的实现与平衡,目前暂无成熟的先例和社会规范可循。那么在智能社会下如何进行构建合理的算法透明则需要着眼于各权利主体间的利益平衡机制。其实在知识产权领域相关制度的设立中,利益平衡原则的考量随处可见。例如著作权法中明确规定了合理使用与法定许可作为著作权限制制度,以及《信息网络传播权保护条例》中同样明确了“避风港原则”用平衡著作权人与网络平台之间的责任。并且联合国国际电信联盟在2003年主导的信息社会世界峰会将“多利益相关方”的概念引入了数据治理的模式中,“多利益相关方”是指在制定相应决策时由所有利益相关方完全参与决策过程,并做出意见一致的决定,再以开放透明的方式推行。算法规制的主要矛盾表现在对于算法透明实施的必要性与保护企业算法研发产生的竞争优势之间的摩擦,基于利益平衡原则,算法透明与商业秘密保护应以共存为视角,在鼓励创新与保护人的基本权利之间找到平衡,因此需要从制度构建层面引入利益平衡以作出新的回应。
4.2. 利益平衡视角下的协调方案
立足利益平衡原则,立法者需要考量的便是为了维护市场主体的竞争优势,需要何种程度的算法披露以减少对市场主体的商业秘密损害的潜在风险。
4.2.1. 有限的算法披露
向社会全面公开算法信息必然减损企业的竞争优势及商业秘密权益,这种风险归结于公开信息范围的失控性。当算法监管允许社会公众可以随意获取企业的算法信息时,此时算法主体就向鱼缸一样被展示在社会公众面前以供观察,这就是Cary教授所提出的“鱼缸型透明” [17],此时企业的商业秘密保护也就无从谈起。因此,解决这一问题的根本在于限制算法披露的范围,正如帕斯奎尔提出的“优质的透明度”这一概念,指需尊重某信息涉及的各方利益,对信息披露范围进行限制 [18]。本文提出可从两方面路径出发以平衡多方利益:一是对于接触主体的限制,二是接触行为限制。
首先,就接触主体限制而言,适用算法透明原则并非任何人均可接触,而是小范围公开,公开对象是决策机构内部人员和部分外部人员。内部来看,鼓励企业内部设立关于算法的法律与伦理委员会,从而监管算法应用可能产生的风险,确保算法的正当性。2014年谷歌就对此问题予以重视,并成立了人工智能伦理委员会 [19]。外部层面,应设立中立的算法审查机构,对算法透明进行事前监督、事后审查。该机构应由掌握算法技术并具有实务经验的专业人员构成,对算法主体公开的内容进行核验分析,形成相应报告,再作出是否需要向社会公开的决定。同时机构人员对算法主体的技术信息负有保密义务,避免对权利人的商业秘密造成不合理的损害。
其次,就接触行为限制来看,旨在限制知情者后续利用被公开的算法的行为,以避免利用已公开信息损害他人合法权益。搜索引擎服务的算法公开则是典型的例子。谷歌早期的PageRank排名算法标准就曾向社会公开,但却被一些广告网站进行恶意操纵,使得用户难以通过谷歌得到最为精准的搜索结果。因此对于某些领域的算法公开要持谨慎态度,并对算法的后续使用行为进行严格限制,具体而言,可以参照著作权领域的技术措施,设置相应技术手段阻止他人恶意使用算法披露的信息,并且对规避技术措施的行为作为独立违法行为进行处置。
4.2.2. 有限的商业秘密保护
权利的行使并非绝对自由,商业秘密同样也是存在保护的例外情况。一般而言,商业秘密权利限制分为两种情况:一是不构成商业秘密的抗辩事由,二是商业秘密成立的前提下,存在例外情形来对抗权利人行使商业秘密。本文将从第二种权利限制来探讨对于算法商业秘密保护的限制。算法广泛应用可能会产生“算法黑箱”、“算法歧视”等风险,这些问题对公民的基本权利存在着威胁,基于利益平衡原则,在保护商业秘密权利人的同时也需要维护社会公共利益,本文拟从两方面来探讨实现该利益平衡的具体手段,以期协调商业秘密保护与算法透明的冲突。
首先,我国应设立公共利益抗辩规则作为商业秘密披露例外制度。从比较法角度来看,英美和欧盟已经逐渐形成了公共利益抗辩制度。以英国为例,公共利益抗辩经历了三个阶段:第一阶段只适用于不法行为抗辩,即如果权利人的信息涉及不法行为,他人则可以不受保密义务限制予以披露。第二阶段则是因不法行为抗辩无法满足现实需要而逐渐形成的正当理由抗辩,该阶段包含了犯罪行为在内的更多抗辩事由。而现阶段则形成了以利益平衡为考量的判断标准 [20]。对比我国,目前涉及商业秘密的相关规则过于原则,并且未能建立起商业秘密保护的公共利益抗辩规则,未能有效平衡商业秘密权利和社会公共利益的关系。因此,我国应尽快建立起商业秘密公共利益抗辩规则,具体实施来看,可以采取“列举 + 兜底”的方式,详尽列举公共利益相关事项,再加上兜底条款保证其科学性。由此,当算法披露事项涉及到公民的各类数据权益或知情权等基本权利时,则可以适用公共利益抗辩规则要求算法主体予以披露。
其次,为商业秘密引入合理使用的判定框架。商业秘密保护重点在于强调信息的秘密性,也就是以阻碍信息流通为基础,但同时商业秘密又属于知识产权的客体,并且法律赋予商业秘密权保护的目的是在于促进信息的流动与传播从而增进社会公共福祉。因此商业秘密的性质与商业秘密保护的目的存在着冲突,并且目前缺乏利益平衡机制。放眼至著作权法领域,合理使用是作为一项重要的利益平衡工具用以将权利人一部分权利让渡于社会公众,并且新《著作权法》为合理使用明确纳入“三步检验法”用以灵活调节著作权权利的边界。“三部检验标准”并非一个预设的清单,而是允许法官评估未经授权的使用行为时的法定要素 [21]:第一,判断使用作品的行为是否属于特殊情形;第二,判断使用作品的行为是否影响原作品的正常使用;第三,判断使用作品的行为是否损害权利人的合法利益。那么当商业秘密适用于算法时,同样可以借鉴合理使用制度在商业秘密领域建立起一个类似的框架,设定一系列灵活的判断标准,允许法院在对是否需要披露算法进行评估。
5. 结语
算法的广泛应用已经渗透至公民日常生活的每一个角落,并产生众多因非透明性筑起的技术壁垒,诸如“算法黑箱”、“算法歧视”。由此,不论是理论界亦或是实务界,对于算法透明规则的建立被广泛呼吁,以体现对公民基本权利、自由、尊严的关怀。但算法规制过程中同样需要回应实践中不同价值的张力,比如算法的商业秘密属性为算法提供了强有力的保护,不论从劳动价值论还是知识产权原理层面商业秘密保护模式都具有正当性基础。在“完全算法保密”和“完全公开披露”存在着剧烈冲突,基于利益平衡原则,算法透明与商业秘密保护应以共存为视角,在鼓励创新与保护个人基本权利之间找到平衡。具体而言,一方面需要限制算法披露的范围。就接触主体限制而言,适用算法透明原则并非任何人均可接触,而是小范围公开,公开对象是决策机构内部设立的算法的法律与伦理委员会和中立的算法审查机构,对算法透明进行事前监督、事后审查。就接触行为限制来看,需要通过相应技术措施限制知情者后续利用被公开的算法的行为,以避免利用已公开信息损害他人合法权益。另一方面,需要对商业秘密保护进行适当的限制。首先,我国应设立公共利益抗辩规则作为商业秘密披露例外制度,当算法披露事项涉及到公民的各类数据权益或知情权等基本权利时,则可以适用公共利益抗辩规则要求算法主体予以披露。其次,为商业秘密引入合理使用的判定框架,设定灵活的判断标准,允许法院在对是否需要披露算法进行评估判断。