朱力宇 胡晓凡
科学技术作为一柄“双刃剑”,有利有害,这是世人皆知的常识性共识。随着人工智能和云计算的快速发展,如何确保人工智能向善、造福人类,已成为全球几乎每个国家都面临的议题。2018年10月31日,习近平总书记在中共中央政治局第九次集体学习时强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”1《习近平主持中共中央政治局第九次集体学习并讲话》,载中华人民共和国中央人民政府门户网站2018年10月31日, http://www.gov.cn/xinwen/2018-10/31/content_5336251.htm。由于人工智能动态发展的特点及不同国家和地区发展水平的差异,保证人工智能的发展符合法律和伦理要求离不开国际合作,所以国务院于2017年在《新一代人工智能发展规划》中明确指出,积极参与人工智能全球治理,加强人工智能重大国际共性问题研究,深化在人工智能法律法规等方面的国际合作。2参见国务院印发的《新一代人工智能发展规划》,国发〔2017〕35号,2017年7月8日发布。
在此背景下,亟需从全球视角统筹协调国家以及国际和区域性组织之间关于人工智能伦理的政策和法律3有关国家的法律和政策,如德国2002年颁布的《联邦数据保护法》、美国联邦政府2016年发布的《国家人工智能研发战略计划》、英国政府2017年发布的《发展英国人工智能产业》报告等;
有关区域性国际组织的法律和政策,如欧盟2018年颁布的《通用数据保护条例》(GDPR)、欧盟2019年4月发布的《人工智能伦理准则》等。,制定出一套国际社会普遍认可且能有效应对人工智能伦理问题的准则。联合国教育、科学及文化组织(UNESCO,以下简称联合国教科文组织)正是制定这一准则的权威机构。它充分发挥全球性、多元化的优势,借鉴长期制定科技伦理规则的经验,历时两年左右,于2021年批准通过了《人工智能伦理问题建议书》(以下简称《建议书》)。《建议书》体现了人工智能与人权的紧密关联,为在数字世界确立充分尊重人权和法治的原则及行动奠定了国家间的合作基础。
本文旨在通过梳理《建议书》制定的背景、过程和主要内容,分析其重要意义、作用与亮点,总结我国对《建议书》形成作出的贡献;
以此为基础,借鉴《建议书》中相关价值观和原则的启示,进一步推动我国在人工智能伦理领域的立法和政策实施,实现国际社会和我国人工智能伦理治理的融合发展。
(一)《建议书》的制定背景
联合国教科文组织中期战略强调,制定有关准则和标准是其重要的职能之一。4参见联合国教科文组织《2014—2021年中期战略》,37 C/4,2013年,第12段,https://unesdoc.unesco.org/ark:/48223/pf0000227860_chi。值得注意的是,联合国教科文组织在《建议书》出台后的《2022—2029年中期战略》(41 C/4)中明确提到,它将在联合国系统中牵头开展人工智能伦理问题方面的工作,一方面在《建议书》的框架下制定国际规范和准则,另一方面将为有意落实这项建议书的成员国提供政策制定和能力建设活动支持。联合国教科文组织在生物伦理和科技伦理领域进行了持续的思考,就人类基因组与人权、生物伦理与人权等领域的科技伦理问题提出了许多规范性建议。5这些建议包括《世界人类基因组与人权宣言》(1997年)、《世界生物伦理与人权宣言》(2005年)、《与气候变化有关的伦理原则宣言》(2017年)以及《关于科学和科学研究人员的建议书》(2017年)等。参见联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,第5段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。《建议书》是联合国教科文组织从全球层面提出的第一部解决人工智能伦理困境的准则性文书1See UNESCO Member States Adopt the First Ever Global Agreement on the Ethics of Artifi cial Intelligence, para. 1, UNESCO (25 November 2021), https://www.unesco.org/en/articles/unesco-member-states-adopt-fi rst-ever-globalagreement-ethics-artifi cial-intelligence.,为有关科技工作者和人权学者提供了研究的伦理“指南针”和“路线图”。
联合国教科文组织及其世界科学知识与技术伦理委员会(COMEST)和国际生物伦理委员会(IBC)十分关注人工智能的发展,多年来持续探寻起草人工智能伦理框架的可行性。由联合国教科文组织举办的人工智能伦理相关会议2早在2017年,联合国教科文组织国际生物伦理委员会和世界科学知识与技术伦理委员会就对人工智能进行了讨论思考,并通过了《大数据与健康》以及《机器人伦理》的报告;
2018年,联合国教科文组织主办了一系列与人工智能伦理有关的会议;
2019年3月,联合国教科文组织举行以人工智能和可持续发展为重点的“人工智能的原则:采用人文主义方法?”全球会议和“教科文组织 2019 年移动学习周”,进一步推进了上述思考;
2019 年5月,人工智能与教育国际会议在北京举行。参见联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,第4段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。,不仅为《建议书》的起草提供了思想与内容的支持,而且确立了由联合国教科文组织提出解决人工智能伦理问题方案的可行性和权威性。为了筹备和起草《建议书》的文本,联合国教科文组织在充分征求成员国意见的基础上组建了特设专家组(AHEG),并与相关组织紧密合作,出台了一系列关于人工智能伦理的背景性文件,对“人工智能”的定义、人工智能与伦理的关系和人工智能伦理与人权的关系等进行了全面且深入的研究阐释。
世界科学知识与技术伦理委员会于2019年2月编写的《人工智能伦理问题初步研究》(以下简称《初步研究》),定义了“人工智能”的内涵,认为人工智能在最宽泛层面上可以分为“理论型”或“科学型”以及“实用型”或“技术型”两大类别3“理论型”或“科学型”人工智能指“使用人工智能的概念和模型来帮助回答与人类和其他生物相关的问题”,涉及形而上学或精神层面的问题,本身具有十分严肃的伦理内涵;
而“实用型”或“技术型”人工智能以工程学为导向,创造机器或程序,使其独立执行本需依靠人类的行动。参见联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能伦理问题初步研究》,第12—14段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。。而联合国教科文组织最终采纳的意见不再区分《建议书》草稿中的“科学型”及“技术型”人工智能,而是保留“人工智能系统”(AI system)这一广义的表述。4UNESCO, Final Report by the Rapporteur of the Intergovernmental Meeting Related to a Draft Recommendation on the Ethics of Artificial Intelligence, SHS/IGM-AIETHICS/2021/JUN/INF.5 Rev. (2021), para. 10, https://unesdoc.unesco.org/ark:/48223/pf0000377572.因此,《建议书》中的“人工智能”定义在最大程度上涵盖了人工智能的整个体系。
此外,由于人工智能伦理框架与人权有紧密的关联,所以联合国教科文组织还从多学科、普遍性和整体性的角度出发,在《初步研究》中指出了两个现有的可供借鉴的人权框架和倡议。一个是2003年信息社会世界峰会(WSIS)通过的《日内瓦原则宣言》所提出的倡议,即“人们在使用信息和通信技术以及创造内容时,应按照相关的国际法规,尊重人权和他人的基本自由(包括个人隐私),尊重思想、信仰和宗教自由的权利”5World Summit on the Information Society, Declaration of Principles—Building the Information Society: A Global Challenge in the New Millenium, WSIS-03/GENEVA/DOC/4-C (2003), para. 58, http://www.itu.int/net/wsis/docs/geneva/official/dop.html.。此外,该宣言还提出应重视多利益攸关方的合作。1Ibid., para. 19.另一个是2015年联合国教科文组织大会第三十八届会议批准的“互联网普遍性”框架(R.O.A.M.)原则2联合国教科文组织:《“点点相连:未来行动选择”会议成果文件》,38 C/53,2015年,第8—9段,https://unesdoc.unesco.org/ark:/48223/pf0000234090_chi。,其涵盖了人权、开放性、可获取性和多利益攸关方参与等方面。在本届会议的成果文件中,联合国教科文组织承诺针对新兴技术的现有影响及其潜在的社会影响,开展立足人权的伦理思考,促进研究和公众对话。3参见同上注,附件《成果文件》,第5.1段。
《建议书》以上述两个框架为基础,考察了教育、科学知识、文化多样性、传播等领域的人工智能伦理问题4参见联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能伦理问题初步研究》, https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。,提出了人工智能伦理的价值观和原则。结合这些价值观和原则,《建议书》对于人工智能运用于不同的政策领域的情况提出了具体的建议与政策行动指引。
(二)《建议书》的制定过程
2019年3月,联合国教科文组织执行局第二〇六届会议通过《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,对就科技伦理和生物伦理方面专门知识拟定文书的必要性以及文书形式、拟定时间安排等进行了阐释。2019年12月,联合国教科文组织大会第四十届会议通过了拟定关于人工智能伦理的国际准则文书的决议,并确定文书形式为“建议书”5联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,第14段, https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。而非“公约”或“宣言”。2020年2月,联合国教科文组织总干事公布了人工智能伦理问题特设专家组成员。同年4月,联合国教科文组织召开特设专家组首次会议,拟定了《建议书》第一份草案;
同年8月,第二份草案形成。2021年4月,政府间专家特别委员会第一次会议召开,在两份草案的基础上拟定了《建议书》的最终文本,并于2021年11月由联合国教科文组织大会第四十一届会议审议通过。
《建议书》基于联合国教科文组织及其相关委员会对“人工智能”的定义及人工智能与伦理关系的探讨,围绕与算法透明度、问责制和隐私相关的问题,提出了人工智能发展涉及的价值观与原则,构建了涉及人工智能数据管理、教育、文化、劳工、医疗保健、经济等多个领域的伦理框架。价值观问题是《建议书》确立的伦理规范的核心,也是采纳《建议书》中政策行动领域的每项决定和构建人工智能伦理相关的法律框架的基本道德依据;
同时,《建议书》提出的各项原则也更具体地阐明了这种价值观。总体而言,《建议书》是通过这些相互依存的价值观、原则和行动构成的伦理框架来防止人工智能对人的尊严与福祉的损害。
(一)《建议书》的宗旨和目标
《建议书》旨在提供使人工智能系统造福人类、个人、社会、环境和生态系统的基础,同时防止其可能产生的危害,促进人工智能系统的和平利用;
其目标是“在全球现有人工智能伦理框架之外,再提供一部全球公认的准则性文书,不仅注重阐明价值观和原则”,而且在着重强调包容、性别平等以及环境和生态系统保护等原则的同时,着力于通过具体的政策建议切实落实这些价值观和原则。1参见联合国教科文组织:《人工智能伦理问题建议书》,SHS/BIO/REC-AIETHICS/2021,2021年,第5—6段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。毫无疑义,上述宗旨和目标蕴含并彰显了人工智能伦理与人权保障的关系。
(二)《建议书》重申和新提倡的人权价值观
《建议书》从以下几个方面分层次提出了与人权相关的人工智能伦理价值观:尊重、保护和促进人权和基本自由以及人的尊严,促进环境和生态系统蓬勃发展,确保多样性和包容性,以及人们生活在和平、公正与互联的社会中。上述价值观的核心可以分为以下三个部分。
首先,《建议书》重申了与人权保障有关的基本价值观,即“每个人与生俱来且不可侵犯的尊严,构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。……人的尊严系指承认每个人固有和平等的价值”2同上注,第13段。。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。
其次,《建议书》创新地提出了保障全人类人权免受人工智能不利影响的价值观,即“在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而‘生活质量’的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定”3同上注,第14段。。
最后,《建议书》还特别提出了防止某些特定群体人权免受人工智能不利影响的价值观,即当人与人工智能系统互动、接受其提供的帮助时,例如照顾儿童、老年人、残障人士或病人等弱势者或处境脆弱的群体时,“人绝不应被物化,其尊严不应以其他任何方式受到损害,人权和基本自由也不应受到侵犯或践踏”4同上注,第15段。。
《建议书》重申或创造性地提出的以上价值观,在应对人工智能系统不断发展过程中产生的新型伦理问题方面发挥着重要作用。这些新型伦理问题包括但不限于人工智能对决策、就业和劳动、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境及人权和基本自由(包括表达自由、隐私和非歧视)等的影响。
由于人工智能系统有能力完成此前只有生物才能完成,甚至在有些情况下只有人类才能完成的任务,因此人工智能系统在人类的社会实践中以及在人类与环境和生态系统的关系中具有重大且深远的创新作用。但是《建议书》同时也指出,“从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知”,在人类的自我认知,与社会、文化和环境的互动,以及自主性、能动性、价值和尊严等方面可能出现有害的结果,并引发人们更多的关切。1参见同上注,第2(c)段。因此,本文着重强调的是保障全人类人权及某些特定群体人权免受人工智能不利影响的价值观。
(三)《建议书》确立的原则
《建议书》基于上述价值观确立的原则包括:相称性和不损害;
安全和安保;
公平和非歧视;
可持续性;
隐私权和数据保护;
人类的监督和决定;
透明度和可解释性;
责任和问责;
认识和素养;
以及多利益攸关方与适应性治理和协作。2参见同上注,第25—47段。可以说,《建议书》确立的这十项原则,都直接或间接与人权、人权保障和法治有关。《建议书》在该部分的总领段落着重强调,这些原则可能对人权和基本自由施加限制,而任何相关的限制必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要运用伦理尽职调查和影响评估等措施,并且确保出现超过该必要和相称性标准的行为时,能够向相应的主体追责。因此,本文主要以相称性和不损害原则,以及责任和问责原则为例加以阐释。
“相称性”和“不损害”是《建议书》中“Proportionality”和“Do No Harm”术语的中文译文。该原则在行政法学中也被称为比例原则,包含适当性、必要性和狭义的比例原则三项子原则。适当性子原则指所采取的措施必须运用正确的手段,并且能够实现行政目的或至少有助于行政目的达成。必要性子原则指在已满足适当性要求后,在能达成法律目的的诸方式中,应选择对人的权利侵害最小的方式。狭义的比例原则,是指权衡方法与目的之关系后,采取与其所达到的目的更合比例或相称的措施。3参见马怀德主编:《行政法与行政诉讼法》,中国法制出版社2007年版,第54—56页。就此而言,《建议书》将确定的原则称为相称性和不损害原则,是颇为贴切的。根据上述原则,《建议书》要求成员国在遵守国际法的基础上,通过修订现行政策、法律或制定新的政策、法律,促进价值观和原则的实现。这为成员国在国内立法中确立相称性和不损害原则,以及考察人工智能限制或影响人的尊严、隐私的合法性提供了思路。4关于相称性和不损害原则,本文还将结合“软法”理论在下文进一步阐释。
责任与问责(Responsibility and Accountability)是《建议书》规定的另一重要原则。根据《建议书》出台前的有关背景文件,对“责任”(responsibility)的法学理论理解至少有四种类型:角色责任、因果关系责任、法律责任和能力责任。对于《建议书》制定较为重要的两类责任是因果关系责任和法律责任,前者将某一行为归因于事件或原动力(event or agent),将该事件或原动力作为造成特定结果的原因;
后者将某一结果归因于事件或原动力。1See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), para. 38, https://unesdoc.unesco.org/ark:/48223/pf0000373199; H.L.A. Hart, Punishment and Responsibility: Essays in the Philosophy of Law, 2nd Editon, Oxford University Press, 2008, p. 210-237.世界科学知识与技术伦理委员会将“责任”规定为“发展自动化智能系统时,技术开发者和公司需要考虑伦理因素”,将“问责”定义为“可以使人工智能驱动的决策和人工智能系统行为的责任归属成为可能的制度安排”。2See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), para. 38, https://unesdoc.unesco.org/ark:/48223/pf0000373199.若人工智能行为者违反了相称性和不损害等原则,或依据人工智能系统作出的决定造成了损害结果,则人工智能行为者需要根据国内法和国际法,特别是成员国的人权义务,以及在人工智能系统整个生命周期中的伦理规范来承担相应的责任。3参见联合国教科文组织:《人工智能伦理问题建议书》,SHS/BIO/REC-AIETHICS/2021,2021年,第42—43段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。需要注意的是,《建议书》中提到了问责的主要情形是人工智能与人权规范和标准之间存在冲突,以及对环境和生态系统正常运行造成威胁。为了有效实施问责,需要从技术设计和制度设计两方面确保人工智能系统的可审计和可追溯,并建立适当的监督、影响评估、审计和尽职调查机制。
(四)《建议书》涵盖的政策行动领域
基于上述价值观和原则,《建议书》规定了具体政策领域的内容,以指导人工智能伦理的实践。这些政策领域包括:1.伦理影响评估;
2.伦理治理和管理;
3.数据政策;
4.发展与国际合作;
5.环境和生态系统;
6.性别;
7.文化;
8.教育和研究;
9.传播和信息;
10.经济和劳动;
11.健康和社会福祉。
上述领域的政策行动是对《建议书》提出的价值观和原则的具体落实。这些行动要求成员国出台政策或建立机制,并通过开展多种行动确保私营部门公司、学术和研究机构以及社会组织等其他利益攸关方遵守这些框架或机制。具体行动包括:首先,在数据政策领域,《建议书》提议成员国依据国际法制定合理保护数据安全的立法框架,其保护需考量人工智能在实施行为或进行决策过程中的数据使用与目标的相称性以及是否损害数据所有者的隐私权。该框架所规范的主要问题包括人工智能对数据处理的透明度、有效和实际的问责方案与机制、适当程度的数据保护、切实有效的独立监督等。成员国需确保个人拥有的与隐私数据相关的权利受到伦理框架的保护。此外,《建议书》还提倡人工智能行为者在遵守现行国际标准的前提下,在系统设计中贯彻保护隐私的原则,并开展作为伦理影响评估之一的隐私影响评估。4参见同上注,第72—73段。
其次,在伦理治理和管理领域,《建议书》明确指出,成员国应在人工智能系统生命周期的不同阶段对伦理评估和监管框架的内容及结果实施问责制和责任制。在确定责任和问责时,首先必须考虑到自然人或法人才是承担人工智能最终责任和接受问责的主体,且“人工智能系统本身不应被赋予法人资格”。因此,该监管框架应符合人类监督原则,并在人工智能生命周期的不同阶段均着眼于人工智能行为以及与行为相关的技术流程。此外,人工智能治理机制需要具备“包容、透明、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性”,并且采取“包括预测、有效保护、监测影响、执行和补救等方面”的措施。为了保证人工智能本身的行为和结果在确定责任归属方面的准确性,成员国应在必要时出台责任框架或对现有框架的解释进行澄清。1参见同上注,第68、54段。此外,在伦理影响评估这一政策领域,《建议书》提出,成员国应出台伦理影响评估框架,“以确定和评估人工智能系统的惠益、关切和风险”,包括成员国的人权法义务,并“酌情出台预防、减轻和监测风险的措施以及其他保障机制”。通过评估,各国政府应确立需采用的监管框架和监督机制,对算法、数据和设计流程进行有效评价,并对人工智能系统实施外部审查,确保其可审计性、可追溯性和可解释性。这为在确定人工智能责任主体之后认定伤害程度和归责奠定了重要基础。2参见同上注,第50、52、53段。
再次,在环境和生态系统领域,虽然《建议书》已经提出了“促进环境和生态系统蓬勃发展”的价值观,3参见同上注,第17、18段。但没有提出具体的实施建议,仅从宏观层面规定了参与人工智能系统生命周期的所有行为者都必须遵守、适用有关旨在保护环境和促进可持续发展的国际法以及国内立法、标准和惯例。《建议书》在政策行动领域又再次提到了环境和生态系统,不仅从实践层面着重强调国家和工商企业需要针对人工智能对环境产生的直接和间接影响开展评估,减少人工智能系统和数据基础设施造成的环境影响;
而且与相称性原则结合,强调人工智能行为者应根据相称性原则使用数据节约型、能源节约型和资源节约型人工智能方法。若没有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑,则必须遵循预防原则;
若可能对环境造成极其严重的负面影响,不得使用人工智能。4参见同上注,第84—86段。
最后,在教育与研究领域,相关主体需要负责任地运用人工智能技术以避免人工智能适用于教育领域可能产生的数据泄露或滥用的风险。具体而言,《建议书》规定,成员国应鼓励开展研究,探讨如何“以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等”领域,以“增加就业机会,并减轻这一领域的挑战和风险”。“人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息”,不得滥用、挪用在学习者与人工智能系统互动过程中收集到的数据,也不得将这些数据用于犯罪目的或商业目的。5参见同上注,第104段。
(一)《建议书》的意义和作用
如前所述,相较于其他关于人工智能伦理的规范框架,《建议书》的重大意义在于其全球性,即为世界各国制定人工智能相关的规范提供了统一参考,并促使利益攸关方在国际社会之间和不同文化之间对话的基础上共同承担责任,由此保证数字转型促进人权发展,推动实现可持续发展目标。
《建议书》还依据人工智能伦理,从动态包容的角度提出应对人工智能已知和未知影响的建议。1参见联合国教科文组织:《关于人工智能伦理问题建议书草案文本的最后报告》,SHS/IGM-AIETHICS/2021/APR/INF.1,2021年,第24段,https://unesdoc.unesco.org/ark:/48223/pf0000376712_chi。已有学者指出,不同于网络的普遍性及网络规范标准的统一性,人工智能处于动态发展的状态,且难以预测技术影响。这一特点更易引发深层次的伦理问题,并且导致国家、团体缺少遵循统一标准的动力。2参见赵骏、李婉贞:《人工智能对国际法的挑战及其应对》,载《浙江大学学报(人文社会科学版)》2020年第2期,第20页。因此,发展和运用人工智能应遵循的原则及伦理准则需要始终以保护人的尊严、人权和福祉为目标,并且需要确立在技术进步的同时能够灵活调整现有框架的机制,以确保上述目标在发展中得以实现。《建议书》提出的人工智能伦理框架即具有此种灵活性与动态性。
同时,《建议书》也与联合国及其他国际组织制定的人工智能伦理框架有效地保持了一致,例如与经济合作与发展组织及二十国集团等国际组织已经制定的有关框架在内容和宗旨方面保持了一致。作为联合国规范科技伦理的重要文书,这种一致性不仅有力地推动了各种框架形成协同增效,也扩大了《建议书》的影响力。
(二)《建议书》的两个亮点
笔者认为,《建议书》至少有两个亮点。亮点之一在于其内容。《建议书》不仅从理论层面提出了人工智能伦理的价值观和原则,而且从实践角度紧密契合联合国教科文组织所关注的重点领域,提出了落实这些价值观和原则的具体政策行动。例如,《建议书》将人工智能关注的总体优先事项——性别平等作为一个独立的政策领域提出,并且关注了环境和生态系统保护,以及中低收入国家的人工智能发展情况。3参见联合国教科文组织:《关于人工智能伦理问题建议书草案文本的最后报告》,SHS/IGM-AIETHICS/2021/APR/INF.1,2021年,第21段, https://unesdoc.unesco.org/ark:/48223/pf0000376712_chi。而上述领域往往被类似性质的其他科技伦理框架所忽视。联合国教科文组织总干事在《建议书》发布会上表示:在《建议书》批准通过后,联合国教科文组织将持续推进务实的评估落地工作,呼吁各成员国政府、民众和企业等行动起来践行《建议书》中的价值观和原则;
目前已有二十余个成员国表明态度,将根据《建议书》开启对本国相关领域的评估。4参见田瑞颖、张双虎:《人工智能伦理迈向全球共识新征程》,载《中国科学报》2021年12月23日,第3版。
亮点之二在于《建议书》的形式及其“软法”性质。依据《组织法第 IV 条第 4 款所述向成员国提出建议书和国际公约之程序规则》以及《制定、审查、通过与跟进大会通过的宣言、章程及类似标准制定文书的多阶段程序规范》的规定,联合国教科文组织有权通过大会制定宣言、建议书或公约。1See UNESCO, Rules of Procedure concerning Recommendations to Member States and International Conventions Covered by the Terms of Article IV, Paragraph 4, of the Constitution, Art. 1, https://www.unesco.org/en/legalaffairs/rules-procedure-cr; Multi-Stage Procedure for the Elaboration, Examination, Adoption and Follow-Up of Declarations, Charters and Similar Standard-Setting Instruments Adopted by the General Conference, Stage 3, UNESCO (9 November 2022), https://www.unesco.org/en/legal-affairs/standard-setting/procedure-declarationsgenconf.在人工智能伦理领域,相较于形式固定且具有约束力的公约,建议书可以根据人工智能发展进行灵活调整,有利于促使成员国就发展前景尚不明确或利益有所区别的问题达成一致。并且,相较于概括抽象的宣言,建议书的形式更加具体,符合初步确立人工智能伦理规则阶段的现实情形,更易于为各国所接受。
此外,由《建议书》的形式可知,其属于“软法”范畴。“软法”虽然不具有法律约束力,但被视为生命科技领域国际规范形成的最佳形式选择。2参见郝静:《生命伦理问题的国际软法规制》,载《理论与现代化》2015年第2期,第50页。“软法”型的建议书缓解了各国历史文化、伦理道德、宗教传统与国际法律规范之间的巨大冲突,渐进式地推动国家在自己能力所及的范围内,针对进一步完善人工智能伦理规则作出承诺,可以为人工智能伦理规则在将来发展为习惯国际法奠定基础。3参见联合国教科文组织:《关于拟订人工智能伦理问题准则性文书之适宜性的技术和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能伦理问题初步研究》,第104段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。需要注意的是,《建议书》的最终目的仍是希望通过指导各国制定与该专题有关的立法、政策或其他文书,将某些具有“软法”性质的建议转化为具有“硬法”性质的法律,或公共和私营部门在人工智能方面的具体行动。
总之,《建议书》是第一部从伦理视角约束人工智能发展应用的国际性规范文件。虽然是“软法”,但是《建议书》为未来将人工智能伦理规则由劝导性、鼓励性转向制度性、强制性奠定了基础。
中国作为联合国教科文组织的成员国,积极参与《建议书》的制定及磋商过程,为《建议书》的价值观、原则和有关建议的确立贡献了中国智慧和力量。例如,中国科学院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅,作为联合国教科文组织人工智能伦理问题特设专家组成员参与了《建议书》的起草,代表专家组向亚太地区各国政府专家代表宣讲了《建议书》草案。同时,曾毅还作为政府间磋商的中方代表参与磋商。4参见田瑞颖、张双虎:《人工智能伦理迈向全球共识新征程》,载《中国科学报》2021年12月23日,第3版。
更为重要的是,在《建议书》出台前,我国政府制定的有关人工智能的政策性文件也为《建议书》中人工智能伦理的价值观、原则和政策的形成提供了重要参考。例如,我国国务院2017年发布的《新一代人工智能发展规划》,作为联合国教科文组织人工智能伦理问题特设专家组确定《建议书》主要宗旨的重要参考文件,被列入专家组工作文件附件五《需考虑的资料来源》的清单中。1See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), Annex 5, https://unesdoc.unesco.org/ark:/48223/pf0000373199.此外,我国关于人工智能伦理的政策性文件所确立的“和谐友好”以及“可持续性”原则,也通过曾毅委员的提议,部分或全部被采纳为《建议书》中人工智能发展的伦理原则。曾毅委员指出,“和谐友好”原则是我国发展人工智能技术、规范人机关系、处理技术与社会关系以及共建人类命运共同体的总体纲领。我国提议将“和谐共生”纳入《建议书》的价值观,意在强调谋求发展需要秉持和而不同、求同存异的思想。2参见田瑞颖、张双虎:《人工智能伦理迈向全球共识新征程》,载《中国科学报》2021年12月23日,第3版。在谈到“和谐友好”与“和谐共生”思想的关系时,曾毅告诉记者:“‘和谐共生’的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以‘和谐友好’等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。”另参见《发展负责任的人工智能:新一代人工智能治理原则发布》,载中华人民共和国科学技术部网站2019年6月17日,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html。最终,联合国教科文组织虽未能直接采纳“和谐共生”“人类命运共同体”等提法,但在《建议书》中确立了“生活在和平、公正与互联的社会中”的价值观,即“人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的互联作出贡献”3联合国教科文组织:《人工智能伦理问题建议书》,SHS/BIO/REC-AIETHICS/2021,2021年,第22段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。,因此实际上部分保留并采纳了“和谐共生”的核心内涵。各国专家认为,这是《建议书》融入非西方价值观的重要体现。4参见田瑞颖、张双虎:《人工智能伦理迈向全球共识新征程》,载《中国科学报》2021年12月23日,第3版。
相比之下,“可持续性”原则得到了联合国教科文组织成员国更广泛的接受与认可。可持续发展目标是我国新一代人工智能发展规划的指导思想,也是联合国及其专门机构全球发展的共同愿景。5参见同上注;
另参见国务院印发的《新一代人工智能发展规划》,国发〔2017〕35号,2017年7月8日发布,第二部分“总体要求”之(一)。我国提议将“可持续性”作为人工智能伦理原则纳入《建议书》,并密切关注将人工智能应用于与可持续发展相关的目标领域时可能产生的阻碍目标实现的风险。最终,各成员国在拟定《建议书》时采纳了“可持续性”原则,将其体现在“环境和生态系统蓬勃发展”这一人工智能伦理价值观中,以及“环境和生态系统”的政策领域中,6参见联合国教科文组织:《人工智能伦理问题建议书》,SHS/BIO/REC-AIETHICS/2021,2021年,第18、85段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。从而对人工智能在环境和生态系统领域赋能的实现和发展提出了具体建议。
目前,我国面临的人工智能伦理治理的难题主要包含以下几个方面:可控性和安全性,可靠性、精确性和稳定性,可解释性和透明度,以及问责追责的问题。针对上述问题,仍缺乏具体的人工智能伦理立法和规范。1参见宋婧:《人工智能伦理之争》,载《中国电子报》2022年4月1日,第1版;
金叶子:《中办国办发文加强科技伦理立法研究 压实管理主体责任》,载《第一财经日报》2022年3月22日,第A02版。因此,需要继续加强针对相关问题的研究,制定人工智能伦理相关的法律规范。在这一意义上,作为全球性的人工智能伦理准则性文书,《建议书》为我国的人工智能伦理治理提供了值得借鉴的宝贵经验与重要启示。
(一)我国人工智能伦理相关的政策和法律规范
我国于1993年颁布了《科学技术进步法》,并于2021年对该法进行了修订。该法规定我国建立科技伦理委员会,明确国家应当承担完善科技伦理制度规范的责任,并规定了科学技术研究开发机构和科学技术人员应当遵守的科技伦理规范。2例如,《科学技术进步法》(2021年修订)第103条、第51条、第67条、第82条。此外,我国还出台了一系列政策性文件,推动科技伦理治理取得积极进展。2016年《国家信息化发展战略纲要》鼓励开发信息资源,同时要求确保社会化交易型数据可追溯、可恢复。此外,该纲要还要求加强信息采集管理和标准制定,提高信息资源准确性、可靠性及可用性,依法保护个人隐私、企业商业秘密,确保国家安全。3《国家信息化发展战略纲要》,2016年7月27日中共中央办公厅、国务院办公厅发布,第三部分“大力增强信息化发展能力”之(三),第10—12段。2017年《新一代人工智能发展规划》规定了人工智能发展的指导思想、基本原则、重点任务、保障措施等,明确提出人工智能立法的三步走战略4根据规划,三步走战略包括如下内容:第一步,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”;
第二步,到2025年,“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”;
第三步,到2030年,“建成更加完善的人工智能法律法规、伦理规范和政策体系”。参见国务院印发的《新一代人工智能发展规划》,国发〔2017〕35号,2017年7月8日发布。,为人工智能产业发展提供了战略高度的指引以及全方位的工作部署。在此基础上,2019年6月,国家新一代人工智能治理专业委员会印发的《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《人工智能治理原则》),提出了人工智能治理需遵循的八项原则:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理,5《发展负责任的人工智能:新一代人工智能治理原则发布》,载中华人民共和国科学技术部网站2019年6月17日,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html。为平衡科技发展和社会公平正义提供了重要的价值观和原则考量。2021年9月,由国家新一代人工智能治理专业委员会印发的《新一代人工智能伦理规范》(以下简称《人工智能伦理规范》)再次强调了上述伦理原则,且新增“提升伦理素养”一项,并针对在管理、研发、供应和使用四个方面可能出现的伦理问题提出规制方案。6参见《新一代人工智能伦理规范》第3条、第4条,载中华人民共和国科学技术部网站2021年9月26日,http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html。2021年12月,中央全面深化改革委员会第二十三次会议提出,建立科技伦理审查和监督制度,提高科技伦理治理的法治水平。7参见《加强科技伦理治理务求“系统性”推进》,载《经济参考报》2021年12月27日,第A01版。
2022年3月,中共中央办公厅、国务院办公厅联合印发了《关于加强科技伦理治理的意见》(以下简称《科技伦理治理意见》)。作为我国“首个国家层面的科技伦理治理指导性文件”1参见胡喆、田晓航、张泉:《科技向善 造福人类——解读〈关于加强科技伦理治理的意见〉》, 载新华网2022年3月31日, http://www.news.cn/politics/zywj/2022-03/31/c_1128521515.htm。,《科技伦理治理意见》以更加广泛的“科技伦理治理”为主题,突出强调监管与问责,并系统化、全局化地总结了科技伦理规范和治理的举措。此外,该意见还肯定了科技伦理治理的多元化主体,并鼓励“自律”和“他律”相结合。2同上注;
另参见《关于加强科技伦理治理的意见》,2022年3月20日中共中央办公厅、国务院办公厅发布。由于人工智能伦理是从属于科技伦理的下位概念,所以该意见同样适用于我国人工智能伦理治理领域。
除了上述政策性文件,人工智能侵犯隐私权的伦理问题规范还散见于我国已出台的《网络安全法》《个人信息保护法》等法律中。例如,《网络安全法》禁止个人或组织利用网络“侵害他人名誉、隐私、知识产权和其他合法权益”,并且规定“负有网络安全监督管理职责的部门及其工作人员……对在履行职责中知悉的个人信息、隐私和商业秘密严格保密”。3《网络安全法》第12条、第45条。又如,《个人信息保护法》规定了“处理个人信息应当遵循合法、正当、必要和诚信原则”,收集个人信息“应当限于实现处理目的的最小范围”,并且“处理敏感个人信息”或“利用个人信息进行自动化决策”时,需要事先进行“个人信息保护影响评估”。4《个人信息保护法》第5条、第6条、第55条、第56条。但是应该说,在人工智能和隐私权的领域,我国目前仍然缺乏人工智能伦理的专项立法和规范。
(二)我国人工智能伦理治理与《建议书》标准的关联
《建议书》的目标之一,就是为各成员国提供人工智能伦理立法的指导。所以,作为联合国教科文组织的重要成员国,我国有关政策的实施和立法应该率先借鉴《建议书》提出的价值、原则、基本政策和具体建议,为世界各国作出示范。同时,由于《建议书》从具体的政策行动领域阐释了人工智能伦理原则在实践中的体现,也启发了我国在进行人工智能伦理立法时需要结合国情,针对实践中可能产生的问题加以考量。以下将对照本文第二部分具体列举并阐释的《建议书》之价值观、原则及政策行动领域,并与我国现行的人工智能伦理政策以及与人工智能相关的法律法规相对比,找出其与《建议书》的关联与区别。主要分析对比的内容为《建议书》确立的“相称性与不损害”原则和“责任与问责”原则与我国科技和人工智能立法和人工智能伦理政策中的相关规定,以及这两项原则在我国环境和教育有关的政策行动领域之体现。
《建议书》中的相称性和不损害原则在我国现行的人工智能伦理政策性文件中,特别是涉及数据保护的政策、法律文件中多有提及。相比于《建议书》,我国人工智能相关政策法律还需要将相称性原则具体化,体现为正当地、必要地收集处理个人信息的原则,以保障个人隐私与数据安全。这符合我国数据安全和隐私权保护的特点和实际需要。例如,《人工智能伦理规范》第3条将尊重隐私作为人工智能伦理的原则之一,强调依照合法、正当、必要和诚信原则处理个人信息。又如,《网络安全法》第40条规定了运营者对用户信息的保密义务以及用户信息保护制度;
第41条规定,收集、使用个人信息应当遵循合法、正当、必要的原则,明示收集、使用信息的目的、方式和范围。但是,我国尚未通过立法构建专项数据安全保护的伦理框架,仍需制定相应的政策,并开展针对数据保护、人工智能数据处理透明度相关领域的隐私影响评估。
就责任与问责这一原则而言,我国《人工智能治理原则》对“责任”的规定与世界科学知识与技术伦理委员会定义的“责任”涵义近似,强调人工智能技术开发者、使用者及其他相关方应具有高度的社会责任感和自律意识。此外,《人工智能伦理规范》第3条提出应建立人工智能问责机制,需要坚持自然人或法人作为责任主体,明确各个利益攸关方的责任。同时,在研发过程中,需要增强安全透明度,逐步实现人工智能系统的可验证、可审核、可监督、可追溯、可预测及可信赖。该规定与《建议书》中伦理治理和管理这一政策领域的规定相同。然而,我国构建人工智能问责机制的具体内容和方式尚未明确,因此可以参照《建议书》,加入多利益攸关方、多边、透明等特点的规定,并采纳预测、有效保护、补救等措施。在初步构建问责机制后,作为成员国,我国可通过出台更具体的责任框架、行政法规或司法解释进一步补充或澄清其内容。此外,《科技伦理治理意见》着重规范科技伦理管理体制和审查制度,同时也规范创新科技伦理管理的主体责任,明确了国家、地方和相关行业主管部门的职责与责任承担,对科技伦理违法违规行为依法追责问责。1参见《关于加强科技伦理治理的意见》,2022年3月20日中共中央办公厅、国务院办公厅发布。上述规定与《建议书》在伦理影响评估这一政策领域提出的人工智能伦理的监管框架和监督机制相似,但《建议书》强调形成该监督框架前需要通过风险评估机制进行评估,并对人工智能进行审查和审计。所以,我国可以通过法律或行政法规细化风险评估的程序、主体、结果与影响,建立有效的人工智能伦理风险-收益评估模式(risk-benefi t assessment),评估数据密集型人工智能和仅需有限数据的人工智能对人权、环境和伦理的影响,以保证归责的准确性及有效性。
从政策行动领域来看,《建议书》批准通过后,人工智能伦理治理的原则在我国环境和生态系统领域以及教育与研究领域将会产生重要影响。本文第二部分曾经提到,“环境和生态系统蓬勃发展”是《建议书》确立的指导人工智能伦理治理的重要价值观之一,也是《建议书》阐释的重要政策行动领域。我国虽然将生态环境保护列入《人工智能伦理规范》的“增进人类福祉”伦理原则和《人工智能治理原则》的“包容共享”伦理原则之中,但尚未作为一项独立的价值原则予以确立,也没有论述相称性和不损害原则在人工智能与生态保护中如何体现。目前,生态环境保护日益成为世界各国面临的重大课题。我国人工智能伦理治理的指导思想和原则与《建议书》的基本价值观和原则是完全相符的,可以在未来的人工智能伦理立法中借鉴《建议书》的规定,增强对该领域价值观和原则以及权利义务设定的研究。此外,还可以结合我国环境保护的现状,加强人工智能对生态环境及与环境相关的人权影响的评估立法,以避免人工智能对人类生存的不利影响。
在教育与研究领域,虽然我国尚未就人工智能适用于教育领域应遵循的必要性和相称性原则,以及责任主体、归责与追责等问题出台相关政策或法律法规,但是在《建议书》通过后,我国已经开始积极响应其在教育领域的政策行动要求。例如,我国教育部部长怀进鹏出席了2021年12月举办的国际人工智能与教育会议,这是联合国教科文组织通过《建议书》等重要文件后,人工智能领域举行的首个国际会议。1《创新技术服务教学进步 人工智能助力未来教育——2021国际人工智能与教育会议举行》,载中华人民共和国教育部网站2021年12月8日,http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/moe_1485/202112/t20211208_ 585822.html。怀进鹏部长在会上致辞指出,新冠肺炎疫情为“教育与人工智能等新技术的有机融合提出了更新更高的要求”,中国政府将“加大人工智能教育政策供给,推动人工智能与教育教学深度融合,利用人工智能促进全民终身学习,致力推动教育数字转型、智能升级、融合创新,加快建设高质量教育体系”。2同上注。因此,未来的立法可着重关注人工智能对教育权及相关伦理规范的影响。
(三)《建议书》对我国人工智能伦理治理的启示
综合考量《建议书》在人工智能伦理治理领域的重要地位及内容和形式上的亮点,结合我国现行的人工智能伦理相关政策与《建议书》的关联和区别,我国今后的立法可以在内容和形式上从以下四个方面进一步细化相应的人工智能伦理治理措施。
1. 强调伦理治理对发展权、教育权的保护
《人工智能伦理规范》明确规定,充分尊重并保障人工智能相关主体的隐私、自由、尊严、安全等权利;
《科技伦理治理意见》也将尊重生命权利作为科技伦理的重要原则之一。我国的人工智能伦理治理及立法可以进一步借鉴《建议书》保障全人类人权和保护某些特定群体人权免受人工智能负面影响的价值观,以及在数据政策、环境和生态系统、教育与研究等领域的人工智能伦理原则,在人工智能伦理规范中更加具体地规定如何保护我国公民的发展权及教育权。例如,可以整合现有政策法律中关于数据保护的相关规定,制定规范人工智能数据安全和隐私的伦理框架和政策,使其符合数据使用的合理性及必要性。此外,还可以通过加强人工智能在生态环境保护、教育领域的伦理影响评估,确保人工智能技术使用的必要性和相称性,最大程度避免人工智能对人权产生的负面影响。
2. 细化人工智能伦理的评估监管和责任机制
《人工智能伦理规范》与《科技伦理治理意见》均规定,地方、行业主管部门和各单位对人工智能伦理问题有监管义务,需要建立伦理审查制度,完善监管体制,并且明晰监管职责。3参见《新一代人工智能伦理规范》第2条、第8条,载中华人民共和国科学技术部网站2021年9月26日,http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html;
《关于加强科技伦理治理的意见》,2022年3月20日中共中央办公厅、国务院办公厅发布,第四部分“加强科技伦理治理制度保障”之(二),第五部分“强化科技伦理审查和监管”之(一)(二)。今后的立法可以进一步借鉴《建议书》规定的责任与问责原则,建立人工智能问责机制。具体方式和坚持的原则包括明确将人工智能研发者、使用者等自然人或法人作为问责对象,综合考虑不同政策领域的情形,加入多利益攸关方和透明度等特点,采取预测、有效保护等措施。此外,还需要加强人工智能伦理影响评估,以确保归责与责任主体认定的准确性。评估类别可以分为算法、数据和设计流程,标准包括能够确定可审计性、可追溯性和可解释性;
若发现人工智能可能对人权和人的尊严构成潜在威胁,或实际造成了损害,需要监督人工智能行为者提供有效的补救。上述内容均可以在法律层面进行规定。此外,我国还可以纳入公众和多元化视角下的利益攸关方作为人工智能伦理治理的法律监督主体,从而鼓励公共实体、私营部门公司、社会组织及利益攸关方参与人工智能伦理的治理和监督,充分调动多方积极性,以取得良好的治理成效。
3.实现对人工智能伦理的“硬法”“软法”协同治理
《建议书》不仅从内容上,同时也从形式上为我国的人工智能伦理治理提供了重要借鉴与启示。《建议书》以“软法”的形式规定了人工智能伦理治理的价值观、原则和政策行动领域,有效地协调了各方的利益冲突,为未来制定人工智能伦理相关的有约束力的法律法规奠定基础。同样,上文提到的我国涉及人工智能伦理的政策性文件是行政立法以外的规范性文件,属于“软法”范畴,与《建议书》在国际法中的“软法”地位相互呼应。在今后一段时间里,中国的人工智能伦理治理很大程度上需要通过“软法”“硬法”协同治理的方式开展并推进。
已故的中国人权研究会前会长罗豪才教授对于“软法”理论的研究有极高深的造诣。他曾经指出:“软法在制定和实施过程中体现了对社会多元主体的尊重,强调平等协商、自律互律,对法治政府建设具有重要作用。”1罗豪才:《发挥软法效用》,载《人民日报》2015年10月26日,第7版。《科技伦理治理意见》中也提到,人工智能伦理立法要以国家科技伦理委员会为主导,与各地方及相关行业主管部门、高等学校、科研机构、企业,以及科技类社会团体(学会、协会、研究会)协调统筹。2《关于加强科技伦理治理的意见》,2022年3月20日中共中央办公厅、国务院办公厅发布,第三部分“健全科技伦理治理体系”之(一)至(三)。所以,当政府主体之间上下级关系不明显时,我国出台的人工智能伦理政策可以发挥“软法”的重要作用,即通过相关政府主体平等协商、自律互律来达成目标;
而“具体的组织机制、协商机制、激励机制、责任机制、纠纷解决机制等也都有赖于软法规范的运用和功能的发挥”3罗豪才:《发挥软法效用》,载《人民日报》2015年10月26日,第7版。。
罗豪才教授的观点对于人工智能伦理治理是发人深省的。例如,如果说科技工作者需要遵守人工智能伦理价值观和原则是自律的要求,那么社会多元主体特别是相关政府主体的平等协商形成的各种“软法”形式,则是互律的体现;
而通过立法形成的“硬法”,规范有关的法律关系主体的权利与义务、权力与责任等,就是他律的规定。因此,结合“软法”理论进行有关研究,是十分有意义的。我国在未来人工智能伦理治理的立法和政策实施中,既要重视发挥“硬法”的基础性、框架性作用,又要充分利用“软法”的延伸性、辅助性功能,推动实现人工智能伦理治理“硬法”“软法”协同治理。
4. 获取人工智能伦理领域的国际话语权
近年来,中国在联合国各组织中的影响力,尤其是在教科文组织中的影响力日益增强。同时,中国在尊重和保障人权等方面的巨大发展和进步也得到了国际社会的公认。我国的人工智能伦理治理一贯坚持开放发展的理念,建立多方协同合作机制进行治理,这与《建议书》中“发展与国际合作”的政策领域要求是完全一致的。因此,我国可以依据和借鉴《建议书》的相关建议,通过在相关国际论坛上讨论科技伦理议题,提出中国观点,设置议题,从而获取中国人权的话语权,维护多边的国际人权法体系。
联合国教科文组织通过的《建议书》是第一部从伦理视角规范人工智能发展应用的国际性准则文件,其根本价值判断标准为基本人权与人的尊严。《建议书》采取的“软法”形式可以有效地协调各成员国观点,促进利益攸关方共同合作,从而维护多边主义。我国积极参与了《建议书》的制定及磋商过程,为人工智能技术造福人类贡献了中国的智慧,并且促使“和平、公正与互联的社会”以及“可持续性”的价值观被联合国教科文组织成员国广泛认可并接纳。同时,《建议书》确定的价值观、原则和政策行动领域对我国开展人工智能伦理治理提供了许多借鉴启示,从规范基础和具体政策实施框架两个方面为我国继续践行人工智能伦理领域的融合发展奠定了人权保障的法律基础。
习近平主席在博鳌亚洲论坛2018年年会开幕式讲话中提出:“世界已经成为你中有我、我中有你的地球村,各国经济社会发展日益相互联系、相互影响,推进互联互通、加快融合发展成为促进共同繁荣发展的必然选择。”1《习近平在博鳌亚洲论坛2018年年会开幕式上的主旨演讲》,载新华网2018年4月10日,http://www.xinhuanet.com/politics/2018-04/10/c_1122659873.htm。党的十八大以来,我国已经形成了融合发展思想和政策的完整体系。有学者提出:“体系、规划、政策、模式、协调,是实现融合发展的关键环节。用体系思维,定总体目标,做局部定性、定量。做好顶层设计,不仅要考虑体系的完整性,而且要考虑现实条件、实施的可操作性、推进的步骤。制定相应政策。”2艾丰:《新时代更加重视融合发展》,载《学习时报》2018年5月30日,第1版。人工智能伦理治理,亦是如此。
中国特色社会主义进入新时代后,融合发展将具有更加重要的作用和意义。包括人工智能在内的我国科技伦理治理体系的构建,应当以习近平新时代中国特色社会主义思想为指导,坚持以人民为中心。人工智能伦理问题的根本价值判断标准是生命、隐私等基本人权和人的尊严,人工智能伦理框架遵循的原则均应围绕保护人权不受到人工智能技术的负面影响,以及针对侵犯隐私权、人的尊严和其他人权的人工智能决策和行动进行有效归责与追责。因此,在人工智能伦理领域还需要根据融合发展思想,结合具体领域和问题细化治理的思路,制定规范人工智能发展与应用的法律法规和相关的政策文件。一方面,可以进一步完善已有的政策文件和法律法规的相关规定。这包括收集和使用数据的正当性及必要性;
构建具有透明度且可验证、可监督和可信赖的人工智能问责机制;
针对人工智能发展产生的违法违规行为实施有效问责;
构建与人权保护相关的环境保护、隐私保护等评估机制,并进一步修订国内有关的规范性文件和司法解释等。另一方面,我国在未来还可以进一步借鉴《建议书》中的政策行动内容,强调人工智能伦理治理对人权,特别是对发展权和教育权的保护,细化人工智能伦理影响的评估、监管和责任机制,运用“硬法”“软法”协同治理,继续为人工智能技术造福人类贡献中国的智慧和力量。