算法的价值挑战及其包容性治理

时间:2023-08-20 13:55:03 来源:网友投稿

○罗有成

随着智能互联网、大数据、人工智能和区块链等为代表的新一代科技革命不断迈向纵深,算法正在以前所未有的姿态重新构造社会行为、社会关系和社会结构。算法把人类拉进了一个大数据无处不在的互联网社会、一个高度解析的单体化微粒社会(1)[德]克里斯多夫·库克里克:《微粒社会》,黄昆、夏柯译,北京:中信出版社,2017年,第7—8页。和一个由各种代码编程塑造出来的自动化社会。在商业场景中,算法在自动驾驶、投资咨询、信息推送、职场评估等业已显现出媲美甚至超越人类的实力;
在公共治理领域,智慧行政、智能司法、福利分配、信用评估等算法系统已越来越多地应用于公共决策。人类似乎重新开启了一个“大航海时代”,只不过这次他们要面对的不再是海洋,而是大数据和算法。(2)周尚君:《数字社会如何塑造国家能力》,《法律和政治科学》2022年第1辑,第26页。与算法同行、与算法共生,成为数字社会必然的发展趋势。然而,算法在带给人类诸多便利的同时,也诱发了一系列合法性挑战、正当性隐忧和伦理性风险。诸如算法歧视、算法“黑箱”、算法合谋、算法霸权、算法错误等新型且独特的不公正现象在生活场景中频繁发生。(3)[英]杰米·萨斯坎德:《算法的力量:人类如何共同生存》,李大白译,北京:北京日报出版社,2022年,“导论”第xxiii页。如何建立高效协同、良性互动的算法治理机制,如何在引导算法技术快速发展创新的同时,能够克服算法技术的社会化应用所产生的潜在价值挑战,将是一个全新的法学课题。

综观既有研究,国内学界主要以“算法治理”统摄此论题。有学者提出算法治理的场景化原理,主张根据不同场景类型对算法采取不同规制方式。(4)丁晓东:《论算法的法律规制》,《中国社会科学》2020年第12期,第138—159页。有学者提出需构建符合算法运作逻辑的规制路径。(5)郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学(西北政法大学学报)》2021年第1期,第14页。有学者则认为,采取算法与法律之关系的重构模式,能够有效应对算法的价值危机和法律挑战,破解算法的法律治理难题。(6)郑玉双:《计算正义:算法与法律之关系的法理建构》,《政治与法律》2021年第11期,第91页。还有学者从不同角度分别提出了算法的元规制模式、(7)程莹:《元规制模式下的数据保护与算法规制——以欧盟<通用数据保护条例>为研究样本》,《法律科学(西北政法大学学报)》2019年第4期,第48—55页。算法的模块化治理(8)许可:《驯服算法:算法治理的历史展开与当代体系》,《华东政法大学学报》2022年第1期,第99—113页。以及算法平台的“穿透式监管”(9)张凌寒:《平台“穿透式监管”的理据及限度》, 《法律科学(西北政法大学学报)》2022年第1期,第107—109页。。由此可见,迅猛兴起的算法治理热潮几乎“乱花渐欲迷人眼”,算法治理的相关制度设计及学理建议亦层出不穷。但是,既有研究背后隐含的假设仍然是将算法作为“技术工具”进行严格规制,尚未真正意识到算法治理的包容性,或忽视算法治理的多元主体维度,亦或忽视算法治理的多元工具维度,更没有找到算法技术发展创新与合理规制相互协调的可行路径。因此,这些分析仍不足以很好地回应数字社会中的算法风险及其治理难题。基于此,本文将从激励算法发展与合理规制相协调的基本目标出发,揭示算法诱发的价值挑战,反思传统算法治理模式的法理困境,阐释算法的包容性治理范式,并提出现实可行的治理方案,以为我国算法治理实践提供理论指引。

进入数字社会以后,算法逐步和人们的日常生活产生深度交融,形成了一种大数据加持、自动化决策、场景化驱动的独特运行逻辑。与绝大多数科学技术相同,算法技术是一把双刃剑。从正面来看,算法不仅完全能胜任“类人化”的智慧工作,还表现出效率更高、精度更优、服务更好的优势;
从负面看,算法独特的运行逻辑对支撑法治社会的法律价值与正义观念造成冲击和挑战。这种价值挑战主要表现为主体的自由空间被抑制、个体的平等机会面临算法歧视威胁以及算法的技术逻辑阻碍制度正义实现。

(一)算法对主体自由的挑战

在价值谱系中,主体自由作为“诸价值的价值”,相对于其他价值具有优先性。阿马蒂亚·森将主体自由定义为“一个人拥有的有效权力的一部分”(10)[印]阿马蒂亚·森:《正义的理念》,王磊、李航译,北京:中国人民大学出版社,2012年,第254页。。霍布斯对主体自由的定义是:“一个自由人指的是在其力量和智慧所能办到的事物中,可以不受阻碍地做他所愿意做的事情的人。”(11)[英]霍布斯:《利维坦》,黎思复、黎廷弼译,北京:商务印书馆,1985年,第163页。然而,算法对人类的主体自由价值提出了前所未有的挑战。

一方面,算法使个体面临被客体化的危险。进入“万物皆互联,无处不计算”(12)齐延平:《论人工智能时代法律场景的变迁》,《法律科学(西北政法大学学报)》2018年第4期,第43页。的数字社会,人们在日常生活中首先面临着各种各样的海量数据,依托算法对这些数据进行系统加工,就可以解读和推断人们的行为。也就是说,算法能够根据不同的场景需要,从海量的数据中随机提取特定的“小定律”,生成一种精准的个体行为反馈机制,从而形成各种各样的自动化区分、评分、排序和决策。这由此将形成以“量化自我”(13)Sander Klous, Nart Wielaard, We are Big Data: The Future of the Information Society, Paris: Atlantis Press, 2016, p.61.为主要特征的数字社会关系架构,有足够的数据就可以认识自我、了解生活,一切皆可量化。例如,近年来新兴的“大数据画像”在掌握个体的各种行为数据后,通过算法对其喜好、性格、交流习惯、行事风格、政治偏好等各种特征进行汇总画像,即可深度剖析自我。算法将人们的各种数据整合起来,按照预先设定的自动化区分标准进行排列,并分别赋予相应的指涉含义。但“算法并不是从主体角度,而是从作为可以被计算、预测和被控制的客体的角度来看待个人的”(14)John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves, New York: New York University Press, 2017, p.141.,个人变成了被算法定义、分析的对象。随着算法权力的进一步扩张,人类与技术之间的权力格局和地位还会随之发生更大的变化。

另一方面,传统的法律权利系统也将受到算法的深刻影响,并进一步危及到主体自由价值的法律实现。主体自由作为法律的价值,同样需要通过法律来实现。这在传统上依赖于法律权利系统的一套作用机制,它将抽象的自由意志转化具体的自由权利,使人们之间有适当的距离,既不相互干预,又能够相互支持,造就了作为现代社会基础的独立而负责任的个人。但是,伴随着算法的异军突起,法律权利系统的作用机制及其仰赖的社会基础发生了重大变化,“法律本身也开始被重新定位到一个可能比它更为根本的新的社会框架结构中”(15)余成峰:《法律的“死亡”:人工智能时代的法律功能危机》,《华东政法大学学报》2018年第2期,第16页。。算法凭借仿生神经网络系统高度模拟人脑的神经元结构,再加上WHAT型高级语言方式程序,其思维和语言会不断逼近甚至超越人类,作出的决策也更加专业化和复杂化。(16)[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,北京:中信出版社,2017年,第120—121页。当这些决策广泛应用于法律场景中时,个体不仅琢磨不透算法的技术逻辑,而且他们的行动空间、控制能力、参与渠道和救济方式也不断被算法侵蚀,与之相伴随的同意权、知情权、参与权、异议权和救济权纷纷失效。

(二)算法对机会平等的挑战

在算法引发的诸多价值挑战中,算法歧视导致个体机会不平等的现象尤为引人担忧。(17)崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,《法律科学(西北政法大学学报)》2019年第3期,第30—33页。人们过于担心人类的偏见和歧视,同时又过于相信计算机的客观公正性。但事实上,计算机可以很巧妙地“学会”沉淀在人类生活场景中隐含的歧视,而且“嵌入人工智能的歧视不再像过去一般露骨,而是隐匿到数字世界的角落悄无声息地侵蚀社会公平正义”(18)李成:《人工智能歧视的法律治理》,《中国法学》2021年第2期,第128页。。例如,谷歌搜索后台使用的机器学习工具存在难以发现的种族歧视问题,它能把黑人常用的姓名与“你是否有被逮捕记录”的调查关联在一起。更加令人担心的是,算法导致的歧视具有不可逆性,很难加以消除。一旦包含人类歧视的算法被广泛应用,将导致特定个体系统性歧视的反复发生,进而诱发个体机会不平等的结构化风险。因为算法对个体的一次不正当歧视决策会被贴上“标签”,分析结果也会将不正当歧视原封不动地保留下来,并直接带进下一轮的运算中,个体的“污名化身份”随着数据的累积逐渐固化和放大,这就形成了接二连三甚至永远的歧视决策锁定。

数字不平等不仅仅是个体差异意义上的不平等,同时它也彰显着个体背后的社会结构中的不平等。算法就可能会加剧社会不平等的结构化风险,进而衍生出“数字贫民窟”效应。算法以大数据为基础,“大数据集”的完备与否决定了输出结果的精确与否。但是人类社会的高度复杂性在客观上决定了“大数据集”的不完备性,很多时候我们收集的数据都不满足全样本和一致性的要求。数据收集偏差、缺失就会造成算法先天性地排除在数据上处于劣势的那一部分群体,并在算法的持续应用中形成信息反馈循环,从而导致社会原有的“数据鸿沟”被进一步反映和强化。同时,算法基于差别对待的底层逻辑,会对不同的人群实行分类,根据他们的特征进行编码和赋值,用以表明其优先等级、风险程度和商业价值。这在一定程度上可能是对数据本身所蕴含的不平等结果的简单复制,久而久之,“强者恒强,弱者愈弱”的局面将越发难以避免。可见,算法并不像设计者所宣称的那样客观、中立、平等和去意识形态化,反而基于一种“自动不平等”的决策背景,营造了一所锁定穷人、管制穷人甚至惩罚穷人的“数字贫民窟”(19)[美]弗吉尼亚·尤班克斯:《自动不平等:高科技如何锁定、管制和惩罚穷人》,李明倩译,北京:商务印书馆,2021年,第10、153页。。

算法诱发价值危机的问题,除了上述的无意识的偏见表达和结构性不平等之外,很大程度上是大型平台企业和部分公共机构不正当使用算法带来的不平等问题。从形式上看,由于数据输入与数据输出之间存在“隐层”,算法不透明形成偏好,忽视甚至强化已有的不平等,加剧算法歧视。但从根源上看,问题不简单在于大数据和算法,而在于平台、公共机构等算法使用者的意志及其行为。(20)周尚君、罗有成:《数字正义论:理论内涵与实践机制》,《社会科学》2022年第6期,第166—167页。如果大数据采集过程中不能很好地考虑到“数字弱势群体”,训练算法、开展机器学习过程中隐藏着不为人知、未经检验的商业目的,算法应用过程中不遵循相应的法律和技术正当程序,那么最终的算法决策结果就会倾向于加重、强化现有的分类、分化、不平等和差距。(21)Monica.M.Brannon, Datafied and Divided: Techno-Dimensions of Inequality in American Cities, City & Community, 2017, (16), p.23.由此可见,由于算法技术本身的复杂性,再加上社会的不公正使用,从而损害了算法程序的价值规范秩序,同时对于私法自治也产生了更大挑战。

(三)算法对制度正义的挑战

制度正义即社会基本结构的正义,它既构成了一个组织良好的人类联合体的基本条件,也确定了社会合作的利益和负担的适当分配。(22)[美]约翰·罗尔斯:《正义论》,何怀宏等译,北京:中国社会科学出版社,1988年,第5页。现代法治社会以实现制度正义为首要目标,但带有极强工具理性特征的算法决策,却很难保证决策结果符合社会公众的制度正义期待。因为算法本质是计算,“计算机并不是‘思考’,而是依据逻辑处理数据”(23)[英]乔治·扎卡达基斯:《人类的终极命运:从旧石器时代到人工智能的未来》,陈朝译,北京:中信出版社,2017年,第 292 页。,通过数据模型或代码表达意见,在相关性的概率计算基础上认识现实世界的规律。然而,人们是通过因果性逻辑而不是相关性的概率逻辑来理解正义价值。因此,经由相关性得出的算法决策,不仅可能与社会的正义观念、正义标准格格不入,还可能阻断以因果关系为链条的法律追责路径。并且,算法建基于可测量和可计算的数据,但正义价值是一个模糊的抽象概念,很难量化。我们的计算机程序尽管在语言学习和逻辑学习方面取得了巨大进步,但仍然不能很好地理解抽象的正义概念。也正因如此,有学者认为,一旦正义的概念没能编入算法程序中,就有可能诱发大规模的、产业化的社会不公。(24)[美]凯西·奥尼尔:《算法霸权:数学杀伤性武器的威胁》,马青玲译,北京:中信出版社,2018年,第103—104页。

算法背后隐藏着算法“黑箱”问题,也可能会给分配正义、程序正义和信息正义等价值的具体实现带来严峻挑战。未来算法会不断进化,训练数据集、编写代码、模型完善,以及机器自主学习过程变得越来越复杂。但对于用户来说,除了繁芜的程序、枯燥艰深的代码外,诸如数据是怎样被收集的、信息是如何分类的、模型是如何选择的、算法又是怎样运算的都不为我们所知晓和控制。目前公权力机关也没有一套完善的法律程序去打开算法“黑箱”,建立起公平公正的数据收集和算法决策体系。(25)林曦、郭苏建:《算法不正义与大数据伦理》,《社会科学》2020年第8期,第13页。在信息不对称、法律程序不健全的情况下,算法完全可能会沦为知识的黑洞与权力的“暗箱”,进而侵蚀分配正义和信息正义价值。此外,由于目前大部分算法的控制权掌握在大数据公司和互联网平台等私主体手中,算法与资本、技术紧密缠绕在一起,因此很难保证透明、参与、可问责等程序价值要素在算法应用过程中得以实现。一旦算法开发者或算法控制者在算法“黑箱”中装进了过度的商业资本追求,就很可能导致私主体利用算法“黑箱”攫取公权力、俘获公共利益等风险的发生。(26)张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019年第4期,第69—70页。

根据算法诱发价值风险的不同原因,传统法律理论与实践中主要包括以算法公开为核心的规制模式和以个体赋权为中心的回应模式。(27)需指出的是,此处的划分依据是算法治理思路上的核心差异。实践中,各国算法治理路径中存在一些共通的地方,但并不影响本文对算法治理主导性思路的类型化分析。尽管这两种治理模式从制度理性的层面上回应了算法危机的时代命题,试图从算法本体的不透明维度和算法主体的权利关系维度构建算法治理范式。然而,一旦仔细分析这两种算法治理模式,就会发现它很难贡献出一个有效的算法治理框架,在应用于具体实践中也会遭遇可行性与可欲性的法理难题。

(一)规制模式及其法理难题

规制模式认为算法的最大风险在于不透明性,因此需要向公众公开算法,确保算法为用户所理解,并围绕算法的可解释性原则建立起一套以结果责任认定为核心的算法问责机制。(28)Frank Pasquale, The Black Box Society,Cambridge:Harvard University Press,2015,pp.8-12.其要求算法必须保持透明度,用户或公众所能够知悉算法的运算数据、基本逻辑、模型原理、决策流程及源代码等信息。(29)Bruno Lepri et al.,Fair, Transparent, and Accountable Algorithmic Decision-making Processes, Philosophy & Technology ,2018, (31) , pp.611- 627.由于规制模式和现代信息公开制度的理念相吻合,又在知情权和可问责性两个维度发挥重要作用,因此在各国治理实践中得到了很好的支持与应用。例如,美国《2019年算法问责法案》(Algorithmic Accountability Act 2019)确立了数据来源披露原则和知情原则两大原则来确保算法的透明性;
欧盟《一般数据保护条例》(General Data Protection Regulation)第13条要求数据控制者在利用自动化决策机制时要向数据主体提供数据画像过程中运用的逻辑。(30)《欧盟〈一般数据保护条例〉(GDPR)》,瑞柏律师事务所译,北京:法律出版社,2018年,第50—51页。我国《互联网信息服务算法推荐管理规定》第12、14、15条针对算法“黑箱”问题,也规定了旨在提高算法透明度的条款。

从制度机理和治理逻辑来看,规制模式在算法透明化基础上还要求算法的可解释性,确保算法的语言符合用户的认知和理解能力,相关的重要信息真正为用户所知悉。因为算法具有高度复杂的技术性特征,即便算法完全透明化,用户或公众也未必能理解其运作逻辑。简单机械的透明度要求可能会陷入“鱼缸”式的透明,为避免这种无效的透明度就要求算法必须可被解释。(31)Cary Coglianese, David Lehr,Transparency and Algorithmic Governance, Administrative Law Review, 2019, (71), pp.19-21 .具体而言,算法控制者首先要为公众提供理解系统源、输入指令、操作环境、输出结果的正当方式和程序,以保障用户知情权和系统稳定性。其次,算法运作规则的公开需符合普通用户的常识判断和理解能力,必要时可以用通俗易懂的方式向被决策对象解释,且这些解释必须直接、有效。(32)Bruno Lepri et al., Fair, Transparent, and Accountable Algorithmic Decision-making Processes, Philosophy & Technology, 2018, (31) , pp.614-616.最后,算法问责机制在规制治理模式的制度安排中尤为重要。监管机构要求算法控制者有义务向公众公开算法系统设计和证明自动化决策的正当性,并通过诉诸专业的行政机构或者组建外部监督主体对算法进行审查和监督,以确定源代码是否忠实地执行程序。

从治理效能来看,规制模式虽然在一定程度上依靠算法的透明化、可解释和可问责机制弥补了算法的技术壁垒,但应用于具体实践中仍会遭遇可行性和可欲性难题。在可行性层面,算法公开不具有解决方案的整体性和包容性。一方面,算法公开可能会和个体的隐私权发生冲突。因为在公开代码、公式、参数权重和理由解释等基本信息的同时,必然也牵涉到对个体重要信息或底层数据的披露。即使不直接披露个体的重要信息,但也可能从算法公开的一些结论中推导出其他用户的决策情况,从而引发隐私披露问题。以智能医疗诊治领域为例,算法控制者公开此类算法的技术逻辑时,也需要借助用户的一些重要数据来予以解释和说明。另一方面,算法控制者也可以借助商业秘密保护的法律制度对抗算法透明原则,这也使得规制模式应用于算法治理遭遇明显挑战。例如,在威斯康星州诉鲁米斯案( State V.Loomis) 中,美国威斯康星州最高法院就认为COMPAS评估算法属于商业秘密,不予公开合法。(33)State v.Loomis, 881 N.W.2d 749 (Wisconsin, 2016) .德国联邦最高法院也倾向于认为算法属于公司的商业秘密,不予支持用户要求公开算法代码的请求。(34)林洹民:《自动决策算法的法律规制:以数据活动顾问为核心的二元监管路径》,《法律科学(西北政法大学学报)》2019年第3期,第45页。

在可欲性层面,算法公开会导致算法被算计的问题,不仅阻碍技术的发展,还会导致多个主体的正当权益受损。(35)Danielle Keats Citron, Frank Pasquale,The Scored Society: Due Process for Automated Predictions, Washington Law Review, 2014,(89),pp.26-30.规制模式的初衷是通过算法公开的制度设计,让那些对结果抱有怀疑的人可以掀开“引擎盖子”看个究竟。但算法一旦掀开“引擎盖子”,别有用心的相关主体就会算计算法。它们在全面了解算法的系统源、输入指令、操作流程等信息后,不惜损害其他主体和用户的合法权益,凭借改变相应参数、数据的刻意设计、利用解释方法探测模型漏洞等技术手段操控算法。(36)丁晓东:《论算法的法律规制》,《中国社会科学》2020年第12期,第144页。以谷歌Pagerank搜索算法为例,当该算法被公开后,许多恶意网站(尤其是内容农场、商业广告网站、恶意代码网站等)立马开始算计该算法,经由技术上的嵌套、隐藏设计,最终实现了相关度很低的内容却排名在谷歌搜索结果页面优先级位置的不正当目的。(37)也正因如此,谷歌以及其他搜索引擎,逐渐收紧算法披露。到最后,谷歌几乎明确拒绝算法透明,甚至将已公开的算法作出秘密调整。沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,《环球法律评论》2019年第6期,第26页。

(二)回应模式及其法理难题

理解算法治理的第二种模式是回应模式。其认为算法治理的根本在于“喂养”算法的数据问题,因此把治理重心放在个体赋权方面,更多的依赖个体对数据的充分把控,通过赋予数据主体新型数据权利的方式来规范数据的收集、使用,从而对算法施加影响。换言之,回应模式主要依靠法律权利系统发挥作用,即不直接对主体行为进行规制,而是通过创设新的权利和安置潜在的价值冲突,以缓和价值理性与技术理性之间的冲突。回应模式弱化了法律的直接规制色彩,最大限度发挥数据控制者的资源优势开展自我治理。(38)程莹:《元规制模式下的数据保护与算法规制——以欧盟<通用数据保护条例>为研究样本》,《法律科学(西北政法大学学报)》2019年第4期,第50页。它创造了一系列包括数据权利和算法相关权利在内的基础权利,以强化个体的自主性和责任性。这些新型的数据权利并不是一个扁平的权利单元,而是一个宽广丰厚的权利束。其主要包括知情选择权、数据访问权、数据更正补充权、数据删除权(被遗忘权)、数据可携权、数据财产权等数据权利;
而算法相关权利主要包括算法解释请求权、算法理解权、算法异议权、人工干预(接管)权、免受自动化决策权等权利类型。

回应模式与规制模式立足于不同的治理逻辑。回应模式本质上是在个体对数据以及决策享有的自决权基础上建立起一套数据权利体系来约束算法行为。“其制度运行逻辑是通过赋予数据主体事前的知情同意以获得选择空间,事中和事后围绕数据和算法构建多种新型主体权利从而助其获得影响和控制。”(39)张欣:《从算法危机到算法信任:算法治理的多元方案和本土化路径》,《华东政法大学学报》2019年第6期,第21页。也就是说,当法律赋予个体明确的数据权利后,与之相对应的义务就会施加给算法控制者,使得算法控制者审慎地对待算法。在这个过程中,个体也能够借助数据权利对抗和约束算法控制者。以《一般数据保护条例》第22条规定的免受自动化决策权为例,根据该条规定,会对数据主体产生法律效力或者将对其具有重大影响的决定,不应仅仅建立在自动化处理的基础之上,数据主体有权反对此类决定。(40)《欧盟〈一般数据保护条例〉(GDPR)》,瑞柏律师事务所译,第57页。

尽管回应模式认识到实现算法可信控制的能力首要掌握在被规制者手中,因此采取了一种“保持距离式”的个体赋权模式。但是,回应模式并不符合算法的运作逻辑,在治理效能、行业发展、算法权力的复杂性上会遭遇可行性难题。一方面,即使赋予数据主体一系列新型的数据权利和相关算法权利,但数据主体并没有与之相匹配的理解意愿和行动能力。有关研究表明,数据权主体没有仔细阅读隐私公告的意愿和习惯,他们往往也不能有效理解繁杂且冗长的权利告知书和隐私政策,从而使得数据权主体在数据的收集、储存、使用时无法作出合理判断。(41)Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford: Stanford University Press, 2009, p.105.另一方面,回应模式可能会对算法行业的发展造成一定阻碍。因为其赋予了个体广泛的数据权利,同时又对数据控制者的义务要求十分严苛,而“个人数据上的权利安排直接决定了数据的流动、分享以及数据产业的发展”(42)程啸:《论大数据时代的个人数据权利》,《中国社会科学》2018年第3期,第103页。,过于严苛的控制可能阻碍算法的发展创新。此外,如果单单凭借个体赋权的治理思路很难对抗算法权力的技术性和资本性。以平台企业的“交叉补贴”做法为例,平台企业可以通过提供免费服务获取数据主体的同意来收集信息或者应用算法决策。

算法崛起诱发的价值挑战表明,数字社会亟需建构起一套能够对算法自动化决策进行有效规约的治理体系。但上述规制模式和回应模式存在的法理难题也表明,算法治理具有相当程度的复杂性和特殊性。目前各国在治理实践中还没有形成体系化的治理制度,这既有算法技术发展不成熟的原因,也有政策制定者无法全面认识算法风险的因素。为此,当前我国算法治理方案的设定应当结合发展实际和未来可能,有所为有所不为,构建一套能够包容多元主体、平衡各方利益,实现激励发展与合理规制相协调的算法包容性治理体系。

(一)包容性治理的理论内涵

本文提出的算法包容性治理体系具有鲜明的统合功能和实践价值。它与上述规制模式和回应模式均不同,既非片面地主张规制优位,强调算法透明化和事后问责;
也非单纯通过个体赋权的方式来约束算法自动化决策,而是寻求科技进步与社会价值的平衡,遵循算法运作逻辑进行多方、多元、审慎治理。包容性治理的“包容”有两方面的内涵:一是指主体层面的包容共治,包括政府治理、社会治理、企业治理、公民治理四个方面;
二是指治理工具和治理手段的包容共治,包括法律之治、技术之治、伦理之治、行业自律之治四个层次。同时,包容性治理在治理过程中还强调个体算法权益、平台算法权益、算法市场秩序和算法行业发展等多种利益的平衡。由此,四元主体、四管齐下、多元利益平衡,方能缓解算法技术创新与相对稳定的法律制度之间的矛盾张力,(43)张吉豫:《构建多元共治的算法治理体系》,《法律科学(西北政法大学学报)》2022年第1期,第111页。克服算法的价值挑战,进而实现算法向上向善的治理目标。

在算法治理领域,提出算法包容性治理,有着丰富的本土理论基础和现实客观依据。在党的十九大报告中,习近平明确提出“打造共建共治共享的社会治理格局”(44)习近平:《决胜全面建成小康社会 夺取新时代中国特色社会主义伟大胜利——在中国共产党第十九次全国代表大会上的报告》,北京:人民出版社,2017年,第49页。。之后,党的十九届四中全会着重提出“坚持和完善共建共治共享的社会治理制度”(45)《中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干重大问题的决定》,《人民日报》2019年11月6日,第001版。。由于算法应用的广泛性和算法治理的复杂性,上述“共建共治共享”理论对算法治理体系的构建具有根本性的指导意义。2019年我国发布的《新一代人工智能治理原则》把“包容共享”作为八项治理原则之一,(46)我国《新一代人工智能治理原则》突出了发展“负责任的人工智能”这一主题,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则。旨在引导算法治理合理容纳监管机构、企业、社会组织、公众等不同主体,并让社会主体共享数字技术发展成果的机会和实效。2021年9月17日,国家互联网信息办公室等九部门联合发布了《关于加强互联网信息服务算法综合治理的指导意见》,明确提出“多元协同、多方参与的治理机制”“打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面”。2022年3月1日起施行的《互联网信息服务算法推荐管理规定》提出了伦理与法治相衔接、推动社会共建共治共享、加强行业自律、赋能公众监督等治理原则。

因此,构建算法包容性治理体系是对既有“共建共治共享”理论的继承和发展。它是在数字技术条件下,利用多方参与主体、多元治理手段去有效回应算法的价值风险及其治理难题。在我国算法治理共同体中,政府、企业、社会组织、公众都是治理主体,都是多元共治格局中不可或缺的“一方”,其中国家的监管发挥核心作用;
在我国算法治理方式中,法律治理固然居于“中枢”地位,但并不能涵盖治理的全部,算法包容性治理所追求的应是一个以法律为基础但能够合理容纳伦理、技术、自律的多元秩序。

(二)包容性治理的具体路径

1.主体机制:促进多元主体的包容共治

如前文所述,规制模式和回应模式要么将算法治理的重心放在政府监管,要么侧重于算法的个体赋权。但究其实质,算法引发的价值挑战是多元复杂的,且交织于政府、算法平台、算法用户、公众等多方参与主体中,如果只是贴合算法问责、个体赋权式的治理,则不过是缺乏整体结构下的精细化进路。在包容性治理架构下,算法治理是一种整体化治理,其每一项治理措施能够在不同维度间建立合理联结,形成具有系统性的制度安排,从而更好地克服算法的价值风险。(47)苏宇:《算法规制的谱系》,《中国法学》2020年第3期,第182—183页。

在治理主体层面,关键在于提升算法治理实施主体的协同性,形成多元共治的治理主体系统。如何建立多元化的价值风险控制体系,如何在算法系统的整个生命周期中落实不同主体的责任,又如何平衡不同主体间的利益冲突,这些都需要借助治理主体的系统化安排来解决。因此,未来算法治理应当既强调政府的科学监管,也重视公民、社会、企业等多元主体的互动,通过不同治理主体法律地位的确认、权利义务机制的安排以及社会监督机制的构建,形成多元协同的算法治理主体系统。

第一,政府一方面要做好政策倡导,加强算法治理研究、科学引导大数据公司的算法开发与应用、建立伦理机构和普及算法教育;
另一方面要落实包容审慎监管,推动更加精细化、更具有针对性的算法立法和执法,处理好算法发展创新与合理规制之间的关系。(48)刘权:《数字经济视域下包容审慎监管的法治逻辑》,《法学研究》2022年第4期,第38—41页。第二,企业应当根据法律法规的规定完善算法管理流程和算法审核、评估机制。对于高风险或对公众权益有重大影响的自动化决策系统,则有必要在吸纳政府、科研机构、具有专业知识的社会公众、同行评审等多方力量展开组合性审核、评估。(49)张欣:《算法影响评估制度的构建机理与中国方案》,《法商研究》2021年第2期,第108页。同时,企业要推动内部责任机构的建立。比如,可以成立算法风险防控委员会,负责统筹算法合规事宜、对接监管部门和行业协会以及建立行业自律规范。第三,社会组织应当在算法治理中发挥重要的监督功能。社会组织在监督算法应用平台的同时,也应当对国家行政机关进行监督。因为行政机关也是算法的开发者、使用者,在公共治理领域中广泛应用算法决策。在未来算法监管中,有必要成立专门性的算法监管社会组织,(50)例如,在欧盟,有学者提议设立新的欧盟监督机构负责评估和监督人工智能产品、软件、系统或服务来保护公共福利。[美]伍德罗·巴菲尔德、[意]乌戈·帕加洛:《法律与人工智能高级导论》,苏苗罕译,上海:上海人民出版社,2022年,第226页。并且算法监管社会组织可根据自动化决策导致公共利益受损的事实,向人民法院提起公益诉讼。最后,建立有效的算法维权机制,畅通公民依法维权的渠道。当公民自身合法权益受到侵害时,可通过投诉、举报、提起诉讼等多元方式捍卫权利,参与算法治理。

2.实施机制:强化算法治理实施工具的系统性

我国算法的相关规范依据散见于法律、规章、政策性文件和技术标准中,这种立法状况必然导致我国对算法的治理系统性不足,治理实施主体、治理实施工具和治理实施对象之间的联系不够紧密。因此,包容性治理强调算法治理应具有整体性和包容性,能够合理联结不同治理工具,将系统化的治理实施机制有机融入整个法治体系中,形成算法治理合力。

第一,在法律层面,遵循发展与安全的辩证法,在“风险—规制”框架下搭建妥当的机制,(51)林洹民:《自动决策算法的风险识别与区分规制》,《比较法研究》2022年第2期,第199页。建构分级分类的包容审慎监管体系。对于可能诱发系统性价值风险、可能威胁人类伦理安全的算法,应当采取严格限制,只有公共服务机构基于实质性公共利益才能应用,且需要在事前、事中和事后均开展“算法安全评估”。对于中度影响个体权利但不会诱发系统性价值风险的算法,原则上允许开发、应用,但需要从制度上构建一套涵盖风险管理机制、数据治理机制、技术保障机制、流程备份机制、信息透明机制、信息备案机制等全生命周期的监管措施。对于算法风险低且自主性弱的算法,法律在原则上不施加明显的规制,只是作出最基础的安全义务要求。第二,在技术层面,构建代码逆向治理机制。算法运作取决于代码如何设计,故代码也可以对算法进行逆向治理。实践中,可以根据社会需要的动态变化将算法诱发的价值风险划分为不同等级,并通过代码一一设定对应的动态因素阈值,从而以低成本方式实现对算法运行全过程的动态监管。(52)郭哲:《反思算法权力》,《法学评论》2020年第6期,第40页。当然,构建代码治理机制并不是要否定法律治理的作用,其仍然需要将代码治理的标准和方案与法律基本价值进行对照,以抑制代码治理的偏好。第三,在伦理层面,一方面要对算法前置性地施加以人为本的整体伦理负载。算法掌握主体应当在设计过程中将由代码组成的“道德语法”(53)[美]温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,北京:北京大学出版社,2017年,第91页。内嵌到算法的底层,严格设定其伦理信任阈值,从而把隐藏在数据背后的负面价值提炼出来,并在算法评估环节予以充分验证。另一方面要立足于算法伦理委员会、伦理实践框架、算法伦理标准认证以及伦理培训,将伦理规范转化为行业标准和技术指南,使之成为具有实际约束力的“软法”(54)许可:《驯服算法:算法治理的历史展开与当代体系》,《华东政法大学学报》2022年第1期,第112页。。第四,在自律层面,推进行业内部制定自治规范和技术标准。在算法应用相关规范和标准制定中,应强化算法安全可控、可解释、可问责和公平公正的价值指引,鼓励企业提出和公布自己的更优算法标准。《互联网信息服务算法推荐管理规定》要求企业制定并公开算法推荐相关服务规则,履行定期审核、评估与验证算法的机理、模型、数据和应用结果等义务,在很大程度上就是鼓励企业积极有效地进行算法自治。企业自行制定的自治规范和技术标准经实践检验成熟时,可将其纳入法律标准或国家通用技术指南中,进一步推广应用,为算法治理提供先进技术示范。

3.保障机制:推进算法的可信控制

算法是继互联网之后新一代“通用目的技术”,具有高度的延展性,可以嵌入到经济社会的方方面面。因此,必须高度重视算法的社会属性,积极预防和有效应对其可能带来的系统性价值风险,确保算法符合人类社会的“共同善”。这就需要以算法信任为基础,通过“贯穿于算法的技术层、应用层和治理层的系统化制度安排,确保算法以可信任状态得以设计、部署、应用和执行”(55)袁康:《可信算法的法律规制》,《东方法学》2021年第3期,第5页。。算法的可信控制是防范算法风险和构建算法信任的基础,其包含技术信任与治理信任两个维度:一是技术本身的可靠、可控,二是算法使用者在算法应用过程中满足合法性、道德性与鲁棒性的要求。(56)Veronika Alexander et al., Why Trust an Algorithm? Performance, Cognition, and Neurophysiology, Computers in Human Behavior, 2018, (89), pp.279- 288.就技术信任维度而言,算法诱发的各种价值风险,首先可以通过增强技术可靠性的方式来推进算法的可信控制。实践中已有新的探索,例如我国大数据公司和算法平台正在积极探索运用歧视感知数据挖掘、数据过滤、差分隐私、联邦学习、模型优化等技术,着力解决算法歧视、算法黑箱等不正义问题。就治理信任维度而言,一方面可以通过多元主体协同,塑造值得信赖的治理群落,满足算法专业化、多元化、敏捷化的治理需求;
另一方面通过法律和伦理规则体系的融合,从数据、算法、计算、管理四个层级入手提升算法的可信性,并精细设计算法全生命周期的责任机制。(57)孙丽文、李少帅:《风险情景下人工智能技术信任机制建构与解析》,《中国科技论坛》2022年第1期,第150页。

与此同时,有必要建立算法应用的负面清单制度,从原则上对极易诱发价值风险且自主性强的算法予以完全禁止,并将其限定为具备合法性且具有相当可信度的算法。习近平强调,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”(58)《习近平在中共中央政治局第九次集体学习时强调加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展》,《党建》2018年第11期,第19页。也就是说,应当尊重科技创新的底线思维,认真研判算法应用的边界和限度。具体来讲,首先,应通过筛选当前算法应用的不法行为来明确算法研发行为的合法性边界,(59)金梦:《立法伦理与算法正义——算法主体行为的法律规制》,《政法论坛》2021年第1期,第37页。使算法赋能的领域受到法律的一定限制。其次,根据算法应用过程中诱发的不同价值风险建立分类预警机制,及时对智能投顾、无人驾驶、智慧司法、智能诊疗等不同领域的不法行为进行否定性评价,防止算法危机的进一步扩散。最后,逐步建立健全负面清单制度,凡是可能造成个体重要权利减损,可能威胁人类伦理安全和冲击社会秩序的算法都应当列入负面清单。例如,应当禁止设置歧视性或偏见性用户标签的行为,禁止根据消费者的偏好、交易习惯等特征实行不合理的差别定价行为,禁止局部改变人类基因的算法开发,等等。当然,负面清单要因算法技术发展、法律变动、社会可接受度变化进行动态调整。

一个加速变动的数字时代已经来临。数据、算法和算力的强强联合重新界定了人们的生存空间并不断开疆拓土,呈现出一种大数据加持、自动化决策和场景化驱动的全新秩序样态。以大数据、算法、区块链、元宇宙(60)关于元宇宙治理的相关讨论,参见[印尼]萨法里·卡西亚安托、[德]穆斯塔法· 基林茨:《元宇宙的法律难题》,郑志峰、罗有成译,《财经法学》2022年第6期,第3—14页。为代表的新一轮科技革命,呈现出前所未有的鲜明特征。它们不再是作为单纯的“技术工具”,技术本身开始展现出与人类相媲美的智能性和自主性,(61)李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期,第62页。这对传统的法权关系和价值体系构成明显冲击,并在很大程度上改变了机器与人类、法律与算法、意识与代码之间的关系。然而,如何接受和使用这种力量依然将取决于人类自身,并将取决于人类为算法正义的实现所做出的努力。面对这场前所未有的技术革新,一方面应摒弃科技领域流行的技术中立论,充分研判算法可能引发的法律、伦理及社会问题;
另一方面也需要认真反思传统治理模式遭遇算法时所带来的难题。因此,未来算法治理应当走向一种包容性治理的新框架:在治理主体层面搭建国家、社会、企业和公民的多元共治;
在治理工具层面合理联结法律、代码、伦理和自律等不同手段;
在治理效果层面满足算法技术创新与合理规制之间的动态平衡。唯此,我们或能实现算法向上向善,而不是任由算法异化为一个神秘且危险的“数字牢笼”。

猜你喜欢规制主体法律论自然人破产法的适用主体南大法学(2021年3期)2021-08-13主动退市规制的德国经验与启示南大法学(2021年4期)2021-03-23法律解释与自然法法律方法(2021年3期)2021-03-16论我国民间借贷法律规制的发展和完善——从抑制性规制到激励性规制法大研究生(2020年2期)2020-01-19技术创新体系的5个主体中国自行车(2018年9期)2018-10-13保护与规制:关于文学的刑法刑法论丛(2018年4期)2018-05-21关于遗产保护主体的思考自然与文化遗产研究(2016年2期)2016-05-17让人死亡的法律山东青年(2016年1期)2016-02-28“互助献血”质疑声背后的法律困惑中国卫生(2015年1期)2015-11-16让法律做主浙江人大(2014年5期)2014-03-20

推荐访问:包容性 算法 治理