MK体育新闻 MKtiyu News 分类>>
沈岿 论软法的实施机制——以人工智能伦理规范MK体育- MK体育官方网站- APP为例
MK,MK体育,MK体育官网,MK体育app,MK体育网页版,MK电竞,MK棋牌,MK百家乐,MK真人,MK百家乐,MK体育注册,MK平台注册,MK中国,MK体育中国,MK体育网页版,MK体育官方网站,mk官方网站,mk sports,mk体育平台app
然而,软法的常规定义本身又意味着其是在一定范围内发生实效的,很难想象,没有实效又没有硬法属性的行为规则,可以当得上“软法”称谓。于是,一个需要处理的问题是,软法又是如何产生或者获得普遍实效的。软法自提出和公布之后,至其事实上产生效果,必定会有时间间隔,无论该间隔之长短如何。有着软法性质的行为规则,在其问世伊始,通常并不会立刻、即时收获效果,除非其只是对已经被普遍遵守和实施的惯常做法赋予规则的形式。这种例外的情形较为少见,毕竟,绝大多数软法是未来导向的,是期待人们为了更好的“公共善”而遵循新的行为规则或改变原先的行为规则。尽管软法的生命力源于其自身内在的说服力,但是,仅仅凭借这个内在属性或内在理由,就期待一个被提议的软法可以演变为真正意义软法,应该是过于理想化的奢望。因为,指向更好“公共善”的软法通常需要让行为人负担更多的遵循或适用成本。如果没有合适有效的机制可以减少或抵消这样的成本,那么趋利避害的行为选择倾向或者良币避免被劣币驱逐的动机,往往会压倒软法内在理由的吸引力,从而使其无法获取普遍效果。这就是在软法具备内在理由使其获得应然效力之外探讨软法何以产生实效的意义所在。
罗豪才、宋功德曾经在国内软法学的扛鼎之作《软法亦法——公共治理呼唤软法之治》中指出,“法依靠国家强制力保障实施”的表达并不准确。对于法的实施—即将法的效力转化为法的实效—而言,国家强制力保障是不可或缺的,但二者之间又不是必然的关系。法的实施可以是行为人:(1)因为从众而习惯性服从;(2)出于认可而自愿服从;(3)受到激励而遵从;(4)迫于社会舆论等分散的社会压力而遵守;(5)迫于组织的压力而服从;(6)慑于国家强制力的使用或威胁使用而服从。由此,法的实效产生方式是多样化的,法的实施机制主要有自愿服从、习惯性服从、社会强制服从、国家强制服从四种方式。这些讨论是作者在反思和修正“法”的定义过程中展开的,其最终指向一个包容硬法和软法在内的全新的“法”概念,在这个概念构成中,法的实施机制被概括为“公共强制”和“自律”。毫无疑问,在以上所列六项之中,除国家强制服从仅适用于硬法以外,其余诸项皆可在软法的实施过程中呈现。
而从比较法的视野观察,域外软法研究者对软法实效问题有着更多的、更直接的关注。例如,德国自由柏林大学教授米莉亚姆·哈特莱普(Miriam Hartlapp)于2019年发表其对欧盟软法在欧盟成员国的实际效果进行的研究,指出软法的合法性或正当性(legitimacy)并不是推动软法实施的关键,真正起作用的是行为人是否能在实施中获益。而软法的可能硬法化(hardeningout)是与软法实施并行的。德国波茨坦大学教授安德里亚斯·齐默尔曼(Andreas Zimmermann)则于2021年探讨了不具有法律约束力的文件—以谅解备忘录为例—是如何在国际法之下产生法律效果的,指出主要是因为此类文件与具有法律约束力的文件发生互动所致,而这种互动是由许多法律机制提供的。美国亚利桑那州立大学教授盖瑞·马秦特(Gary E.Marchant)和研究员卡洛斯·伊格纳西奥·古铁雷斯(CarlosIgnacio Gutierrez)于2020年合作完成关于人工智能软法间接实施的文章认为,软法成功与否是高度依赖特定情境的,取决于遵守软法的成本与可行性、对遵守软法的激励以及拒绝遵守或没有遵守软法的后果;他们描述了九个有助于人工智能软法更加有效、更加可信的机制和过程,并暗示可以有更多其他的。相关研究不可尽数,但以上数例已经表明:一方面,如本文之前所述,论者们都倾向于一个基本前提,软法的实效更多取决于遵守软法给行为人带来的好处,包括利益之增加和不利之减少;另一方面,使行为人获得好处从而可以促进软法收取普遍效果的机制远不止于激励、社会压力、组织压力。
鉴于软法在各个公共治理领域普遍存在,为使研究更加聚焦,本文选择人工智能的软法实施作为主要研究对象。人工智能为不计其数的研究者、开发者、应用者带来同样不计其数的大大小小利益,在强大的利益驱动下,人工智能快速发展,而各国政府即公共监管者的立场更多是容许而不是抑制其发展,尤其是在人工智能最初方兴未艾的阶段,这个立场伴随的就是基于软法的规制。即便随着人工智能风险的清晰化,对不同风险进行分类管理和控制的硬法规范日渐增多,但也不能完全取代这个领域软法的重要地位。需要特别指出的是,人工智能治理的软法形式主要是伦理规范(ethics)。篇幅所限,本文无意就科技伦理与软法之间的关系展开讨论,尽管这也是具有重要价值的、属于软法本体论—软法是什么—的议题。美国的盖瑞·马秦特教授和瑞士的艾菲·瓦耶纳(Effy Vayena)教授等人将人工智能伦理规范视为软法一种形式的进路,也是本文采取的。
对这些文件的研究表明:第一,公共领域组织(包括政府组织和政府间组织)与私领域(包括公司及其联盟)发布的伦理规范在数量上大致相当,意味着两个领域都对此高度重视。第二,非洲、南美洲、中美洲、中亚等地区缺少代表,意味着人工智能伦理规范国际话语中的权力不平衡。第三,经济更加发达的地区正在塑造人工智能伦理规范的讨论,这可能会引起对地方性知识、文化多元主义和全球公平的关切。第四,人工智能伦理原则主要有:(1)透明;(2)正义、公平和平等;(3)不伤害(Non-maleficence);(4)责任和归责;(5)隐私;(6)造福人类;(7)自由和自治;(8)信任;(9)可持续发展;(10)尊严;(11)社会团结。第五,没有一个原则是整个文件库同的,尽管透明、正义和公平、不伤害、责任以及隐私是比较集中的,有超过一半的指南涉及。第六,所有十一项原则都存在实质内容的分歧,决定分歧的主要因素有:(1)如何解释伦理原则;(2)为什么它们是重要的;(3)它们与什么问题、什么领域、什么行动者相关;(4)它们应该如何得到执行。基于这些发现,该文作者认为:在政策层面,需要各方利益相关者更多的合作,以在伦理原则内容本身和它们的执行上形成一致和趋同;对于全球而言,将原则付诸实践、寻求人工智能伦理规范(软法)和立法(硬法)的协同是下一步需要做的重要工作;目前,这些非立法规范是否会在政策层面产生影响,或者它们是否会影响个体实践者和决策者,还拭目以待。
艾菲·瓦耶纳教授等提出的执行问题、实效有待观察问题,在他们研究成果发布前后,已经有研究者进行了相应的探索并给出了回答:基本无效。“算法观察”(Algorithm Watch)是一个位于德国柏林和瑞士苏黎世的非政府、非营利组织,其宗旨在于为一个算法和人工智能在其中是加强而不是削弱正义、人权、民主和可持续发展的世界而奋斗。该组织于2019年发布了“全球人工智能伦理指南清单”,对全球范围内旨在为以合乎伦理的方式开发和实施自动决策系统确立原则的框架和指南进行汇编。该清单于2020年4月28日更新后,有超过160个指南包含在其中,涉及中国的有:北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布的《人工智能北京共识》(2019年5月25日)。中国人工智能产业联盟发布的《人工智能行业自律公约(征求意见稿)》(2019年5月31日)。国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则—发展负责任的人工智能》(2019年6月17日)。
显然,“算法观察”编撰的清单,没法囊括世界范围内所有以指南、原则、准则、倡议、自律公约等形式呈现的人工智能伦理规范。一是此类软法在数量上难以计数,某个时间节点上的收集不见得完整;二是此类软法在生成上不受主体、程序等的严格限制,非常快捷、便利,故收集的时间节点以后很快又会有新的软法出现。以中国为例,2017年7月8日国务院发布《新一代人工智能发展规划》,其中就多处提及人工智能伦理规范建设的意义、重点和时间线,尽管其本身并未直接提出具体的伦理规范。而2018年1月18日中国电子技术标准化研究院发布的《人工智能标准化白皮书(2018年版)》已经明确,人工智能的发展应当遵循人类利益原则、透明度原则和权责一致原则等伦理要求,虽然其相对粗糙、简略。这是在“算法观察”收集或更新的时间节点之前的情况。而在该时间节点以后,我国的国家新一代人工智能治理专业委员会又于2021年9月25日发布了《新一代人工智能伦理规范》,比较系统地提出了“增进人类福祉”“促进公平公正“”保护隐私安全“”确保可控可信“”强化责任担当“”提升伦理素养”等六项基本伦理规范,又系列地提供了管理、研发、供应和使用规范。
然而,没法囊括并不是问题的关键所在,因为“算法观察”于2019年发布此项研究初步结论时就已经指出会有更多的指南,而该组织的观察结论则是更加重要、更引人瞩目的。2019年,“算法观察”发布的《 人工智能伦理指南 :有约束力的承诺还是装点门面?》一文指出,彼时收集的83个指南之中,绝大多数都是行业主导的,因为自愿的自我监管是非常受欢迎的避免政府监管的手段。德国的思爱普(SAP),美国的赛捷(Sage)、脸书(Facebook)、谷歌(Google)等公司既规定了内部原则,也公布了一般指南。其中一部分是公司作为产业联盟——如“人工智能伙伴关系”(Partnershipon AI)——成员发布的,一部分是行业协会领导发布的。最为重要的是很少有指南附带治理或者监督机制,可以确保这些自愿承诺得到遵守和实施。2020年,“算法观察”数据库中指南数量超过160个,或者是自愿承诺的,或者是建议性的,其中只有10个是有实施机制的。即使是世界上最大的工程师专业协会“电气与电子工程师协会”(InstituteofElectricalandElectronicEngineers,以下简称IEEE)制定的伦理指南,在很大程度上也是没有实效的,因为脸书、谷歌和推特(Twitter)等大型科技公司都没有执行这些指南,尽管它们的许多工程师和开发人员都是IEEE的成员。
“算法观察”两份报告的结论对人工智能伦理指南的实效基本持否定态度。而且,这并不是其一家之言。此前,来自美国北卡罗来纳州立大学的研究人员进行了一项研究,他们找了63名软件工程专业学生和105名软件开发专业人员,并将其分成两组。一组是明确指示其使用美国计算机协会(AssociationofComputingMachinery,以下简称ACM)制定的伦理规范,另一组是对照组(controlgroup),即没有看到ACM伦理规范。研究人员让被测试者回答十一个有着简单情境介绍的选择题,每个题都涉及伦理决策。研究结论是:无论是学生还是专业开发人员,看过和没有看过伦理规范的被测试人员对问题的回答,没有统计学意义上的显著差异。这表明伦理规范并不会对软件开发产生实质性影响。人工智能伦理规范基本都是由技术专家(为主)、法律专家(为辅)研究和制定的,其希望通过技术的、设计的专业知识来应对人工智能/机器学习的伦理问题,并将设计作为伦理审查的中心,因此,上述针对软件工程专业学生和软件开发专业人员的测试结果验证了伦理规范的“实效赤字”问题。人工智能伦理规范的大量产出背后潜藏着较为可观的投入和支出,但其收入即实效远远少于成本,因此本文称其为“实效赤字”。
那么,人工智能伦理规范是否真的如上述测试所表现的那样“实效性几近于零”呢?本文并不以为然。首先,人工智能伦理规范并不纯粹是被束之高阁的。科技巨头发布的此类软法,或多或少地对其自身产生拘束作用。例如,谷歌公司自2018年发布《人工智能原则》(AIPrinciples)以来,每一年都会发布更新报告,而在报告中,其会向公众说明自己在践行原则方面的努力、取得的进步、获得的教训。2023年报告就提到:“这是我们每年发布的《人工智能原则》进展报告的第五版,通过年度报告,我们始终如一对我们如何将原则付诸实践保持透明。我们于2018年首次发布《人工智能原则》,旨在分享公司的技术伦理章程,并使我们对如何负责任地研究和开发人工智能保持责任心。生成式人工智能也不例外。在本报告中,我们将详细分享在研究和开发包括Gemini家族模型在内的新型生成式人工智能模型过程中所采用的合乎原则的方法。原则只有在付诸实践后才能发挥实效。这就是我们发布这份年度报告——包括学到的艰难教训——的原因,目的是让人工智能生态系统中其他人能够借鉴我们的经验。”谷歌公司的年度报告本身的真实性、其在报告中反映的践行原则之努力在多大程度上执行了其原则,还缺乏中立的、客观的、完整的评价。谷歌公司在2019年宣布不再与美国国防部续约,停止向其提供人工智能的帮助以分析海外军事无人机监控录像,也被认为是在其员工抗议此项目引发伦理争议和忧虑的情况下作出的决定,而不是自愿履行其人工智能伦理规范的结果。尽管如此,年度报告及其公开至少意味着该公司愿意向公众汇报其在人工智能伦理规范执行方面的进步,也愿意将自身置于广泛的监督和随时可能出现的批评之下。
再者,人工智能伦理规范还会在“微观伦理”层面上得到体现。虽然在宏观层面上,由抽象、含糊词句形成的人工智能伦理规范的实施乏善可陈,但是,在人工智能伦理问题引起广泛重视的情况下,从伦理到“微观伦理”(如技术伦理、机器伦理、计算机伦理、信息伦理、数据伦理)的转变也在发生,并且有很好的实效。例如,缇姆尼特·吉布鲁(Timnit Gebru)的研究团队提出了标准化的数据表,列出不同训练数据集的属性,以便机器学习训练者可以检查特定数据集在多大程度上最适合他们的目的,数据集创建时的初衷是什么,数据集由什么数据组成,数据是如何收集和预处理的等等。由此,机器学习训练者可以在选择训练数据集时作出更明智的决定,从而使机器学习变得更公平、更透明并避免算法歧视。这一在“微观伦理”上的工作成果,受到了微软、谷歌和国际商用机器公司(IBM)的青睐,开始在内部试用数据集的数据表。“数据营养项目”(DataNutritionProject)采纳了部分成果,“人工智能伙伴关系”也在建立类似的数据表。
最后,在原理上,软法的“执行实效”通常是需要一段时间才能显现出来的。软法的显著特点在于说服,而不在于强制,说服的时间成本自然是不可避免的。然而,从2016年还很少有人工智能伦理规范,到现在全球范围内如此多的政府、非政府组织、大型企业等主体发布或更新此类规范,已经表明正在形成一种道德共识,即人工智能的开发、利用应当承担起伦理责任。而这个道德共识,美国哲学家卡尔·波普尔(Karl Popper)认为科学界早在核武器和生化武器问题上就已经有了:承认存在一系列特定的威胁,必须准备一批特定的人、一套特定的工具和一组特定的观念以应对威胁。从这个角度看,人工智能伦理规范至少已经获得了“推介实效”,或许其会像企业社会责任一样,后者花了几十年的时间,才部分地摆脱了“洗绿”或“洗白”的粉饰名声,制定了许多公司必须遵循的全球标准。当然,这最后一点并不希望以偷换概念的方式,把本文关注的“执行(实施)实效”主题延伸到“推介实效”,只是希望在观察研究“执行(实施)实效”时增添一个“时间—过程”维度。
第二,人工智能伦理规范的抽象性、模糊性。人工智能伦理规范并不是针对人工智能的,而是针对研究、开发与应用人工智能的人类的,其目标是要求研究者、开发者与应用者遵循一定的规范,以使人工智能带来的伦理风险降到最低。因此,该规范越是具体、明确,就越容易得到遵守;否则,就很难落实或者存在各种有争议的落实。然而,现今的人工智能伦理规范基本是抽象的、模糊的,绝大多数指南除了用“人工智能”一词外,从不用或很少用更为具体的术语。而人工智能只是一个集合术语,指向范围极广的一系列技术或一个规模巨大的抽象现象。没有一个伦理指南令人瞩目地深入到技术细节,这表明在研究、开发和应用的具体情境与一般的伦理思维之间存在很深的鸿沟。尽管抽象性、模糊性可能被认为是不可避免和必要的,因为人工智能的应用极其广泛、发展快且未来的发展轨迹并不确定,但是,前述在“微观伦理”层面上的成功例子表明相对具体化、精细化是可能的。
第六,人工智能伦理规范影响力的社会系统论困境。德国斯图加特大学教授蒂洛·哈根道夫(Thilo Hagendorff)除了揭示人工智能伦理规范在实施中受到冷落的经济逻辑以外,还引用三位著名社会学家的理论从宏观社会学角度进行了分析。其指出,德国社会学家、风险社会理论的开拓者之一乌尔里希·贝克(Ulrich Beck)曾经有一个非常形象的比喻,当今社会的伦理“发挥的作用就如同在洲际航行的飞机上配置了自行车刹车”,这在人工智能情境中尤其适用。根据另一德国社会学家尼克拉斯·卢曼(Niklas Luhmann)的系统论,现代社会由众多不同的社会系统构成,每个系统都有自己的工作代码和沟通媒介。结构耦合可以让一个系统的决策影响另一些系统,但其影响有限,难以改变社会系统的整体自治。法国社会学家皮埃尔·布尔迪厄(Pierre Bourdieu)也表示,所有这些系统都有自己的代码、目标价值以及经济资本或象征性资本,社会系统通过这些资本得以构建起来,并基于这些资本作出决策。这种自治在人工智能的工业、商业和科学里也显著存在。对这些系统的伦理干预只会在非常有限的范围内发挥作用。
第七,人工智能发展压倒约束的宿命论。导致人工智能伦理规范出现“实效赤字”的根本原因在于,人类社会对待人工智能的基本立场是决定论或宿命论的(determinism)。人工智能伦理指南文件绝大多数都将人工智能叙述为推动世界发生历史性改变的力量,这个改变是不可避免的、影响深远的、会给人类带来巨大利益的,人类社会只能去回应、适应并为其风险和后果承担起责任。例如,2018年的《蒙特利尔宣言》提到:“人工智能形成了科学和技术的一个重大进步,它可以改善生活条件和健康、促进正义、创造财富、加强公共安全以及减轻人类活动对环境和气候的影响,从而产生可观的社会效益。”我国国家互联网信息办公室于2023年10月发布的《全球人工智能治理倡议》也持类似的立场。人工智能是人类发展新领域。当前,全球人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,给世界带来巨大机遇。在此决定论/宿命论的背景之下,不仅科技巨头如谷歌、脸书、百度、阿里巴巴等竞相推出新的人工智能应用程序,而且,各国都宣布参加人工智能竞赛,把人工智能视为在人类社会各领域解决问题的动力。鉴于此,相当程度上对人工智能发展起约束作用的伦理规范,自然是如同飞机上的自行车刹车一样。
第一,软法的灵活快捷性。几乎所有涉足人工智能领域的研究者都承认一个事实,即人工智能的发展速度惊人,并以同样惊人的速度对人类生活各个方面进行渗透,人类社会因此正在迅速发生难以预测未来确定图景的转型和变化,危害已经初露端倪,风险也悄然潜伏。更多由于前述公私领域普遍存在的经济逻辑的推动,这一动向似乎是决定性的、宿命的,如何控制和防范危害、风险也就因此转化为一个法律体系的“配速”问题(pacingproblem)。早在1986年,美国技术评估办公室(USOfficeof Technology Assessment)就提及:“技术变革曾经是一个相对缓慢而沉闷的过程,但现在其速度超过了管理该系统的法律结构的变化速度,这给国会带来了调整法律以适应技术变革的压力。”法律系统面临的配速问题体现在两个方面。其一,许多既有法律框架建立在社会和技术的静态观而不是动态观基础上;其二,法律机构(立法、监管和司法机关)调整适应技术变革的能力正在减速。配速问题的存在,加剧了对人工智能危害和风险的担忧。相比正式立法程序的官僚性、正式性、繁琐性,软法的制定与更新就灵活、快捷许多。如前所述,人工智能伦理规范制定主体多样,没有严格的程序限制,比较容易将人们的伦理关切及时转化为引导人工智能研究、开发和应用的原则。尽管这些原则抽象、含糊、多义又缺乏强制约束力,但公开宣布的伦理规范的事实约束力并不是完全归零的。
第二,软法的多样适配性。“人工智能”只是一个抽象用词,其所指向的是范围极广、种类繁多、层出不穷、不计其数的技术,每个技术都有可能会带来比较特定的伦理关切,也需要在技术上找到各自特定的应对方案。例如,美国阿肯色州一次医疗保健系统算法执行,对糖尿病患者或脑瘫患者产生负面影响,致使他们能够获得的医疗保健大幅削减;YouTube使用的推荐算法由谷歌开发,其依靠反馈循环,旨在优化用户的观看时间,但在预测人们喜欢看什么内容的同时,也决定了人们看的内容,以至于助长了耸人听闻的虚假视频以及阴谋论;谷歌曾经出现一种偏见,凡是搜索的名字是历史上有过的黑人名字,就会在搜索结果上暗示有犯罪记录,而搜索的是历史上的白人名字,搜索结果就会相对中性;而人工智能/机器学习的人脸识别技术曾经被指责对有色人种(尤其是黑人)识别不够,微软公司就开始宣传其在“包容性”方面的努力,以改善不同肤色的面部识别功能,但也有评论者认为这样的技术改进会对黑人社区更为不利,因为黑人社区在历史上就是监控技术的靶子。诸如此类涉及人工智能伦理引起关切的例子,足以表明全面的、以硬法为基础的统一监管,很有可能陷入无法适应多样化技术、多样化伦理要求的困境。甚至,监管有时是反市场的、对小企业不利的,其形成的障碍只有大企业才能克服。相比之下,软法主要不是由政府制定的,企业、行业组织、企业联盟、非政府组织等都可以针对更加具体特定的技术伦理问题制定相应的、更加适配的指南。
第三,软法的合作试验性。尽管软法确有分散、混乱、叠床架屋的特性,但也由于存在多种软法方案,就给人工智能的研究、开发和利用带来了选择试验的空间,利益相关者之间——包括又不限于政府与企业之间——有时候会形成合作的关系,而不是对立的关系。这同以往政府与企业的监管对立、企业与企业之间的竞争对立是不同的。在这种合作的关系之中,也有相互学习、相互受益的元素。例如,前文提及谷歌公司在发布《人工智能原则》2023年度报告时宣称其也意在分享研究开发新模型时应用原则的经验和教训。在人工智能伦理规范推进方面发挥巨大作用的机构之一是全球电气与电子工程师的联合组织IEEE。其发起的全球自动与智能系统伦理倡议,旨在解决由自动系统、智能系统的开发和传播引起的伦理问题。它确定了120个关键问题,并提出了解决这些问题的建议供企业选择。人工智能——具体到特定场景的特定技术——的研究、开发、利用如何才能更好地符合伦理规范,或者,反言之,什么样的具体、细致的伦理规范适合于特定场景的特定人工智能技术,并不是有着确定答案的问题,也不是单凭某个专业团队就能够提出最佳方案的问题,这是需要技术专家、法律专家等合作探索的,也是需要不断地进行试验的。而这是硬法和硬性监管所无法达到的。
第五,软法的跨国适用性。人工智能的研究、开发、利用是世界性的、跨国界的,尤其是它在互联网上或者通过互联网的利用;人工智能所掀起的伦理关切和担忧也是世界性的、跨国界的。即便是某个平台、某家企业或某个应用程序被曝有特定的人工智能伦理失范的风险或丑闻,并不意味着它的影响只限于平台、企业所登记注册的国家,也并不意味着此类技术的伦理失范风险或丑闻不会在别的国家、别的平台、别的企业或别的应用程序中出现。例如,微软支持的OpenAI公司开发的ChatGPT仅仅上市两个多月后,类似应用程序带来的剽窃、欺诈和错误信息传播等风险就受到了关注,欧盟内部市场专员蒂埃里·布雷顿(Thierry Breton)在接受路透社专访时提到制定全球标准的紧迫性。传统硬法、硬性监管主要限于主权国家或基于条约的区域性国际组织的领土管辖范围内,其之所以具备法律上的约束力,就是因为其得到主权国家基础规范或区域性国际组织基础条约的授权与认可。因此,若要在全球范围内应对人工智能伦理风险,跨越国界或者区域界限的软法/伦理规范在人工智能领域普遍推广,应该是可选的方案。
当然,在互联网经济、全球经济的生态之中,大型科技公司欲将业务拓展至其注册国以外的市场,肯定会关注并遵守该市场所在法律辖区的法律(硬法)系统。由此,像欧盟这样的跨国法律辖区,其制定的硬法如《通用数据保护条例》(GDPR)和最新的《人工智能法案》实际上也有为全球制定标准的意义,产生了所谓的“布鲁塞尔效应”。但是,这个效应毕竟在两个意义上是间接的。其一,它只是会影响其他主权国家如中国或美国的立法,通常不会被后者照抄;其二,它只是会对有意进入欧盟市场的科技公司产生约束力,对其他规模较小且无意国际市场的科技公司的人工智能研发利用没有直接约束力。而人工智能伦理规范应该预期会在全球范围内达成更多共识,会越过主权国家或欧盟等区域性组织法律(硬法)管辖的界限,以发挥其效用,尽管现在还不能如愿展现实效。
一方面,人工智能伦理规范有其兴起、存在的原因和独特价值,已经开始有凝聚共识、普遍认可等的“推介实效”;但是,另一方面,人工智能的研发、利用过程似乎还远没有受软法性质的伦理规范的切实影响,介入其中的专业人员还没有将伦理规范与程序设计紧密地结合起来,以至于许多人工智能的新产品、新应用时不时会引起对其所带来的伦理风险的普遍关注。那么,究竟如何才能让人工智能伦理规范落到实处,从事实压力转变为事实约束力,与相应的硬法合作,共同完成应对人工智能伦理风险挑战的使命呢?软法如何有效实施的这一命题,可以从中获得哪些普遍的启示和结论呢?由于软法在原理上不具有强制执行力,不能通过强力去直接实施,故本文在此讨论的是间接地推进软法实施需要哪些类型的机制。
软法的实施是一个需要不断自我更新、获取共识、得到驱动的渐进过程,对未来不确定风险承担预防和治理功能的人工智能软法,尤其如此。在这个过程中,缺少强有力的、持续坚定从事软法推进事业的组织,是难以想象的。从类型上而言,这样的组织可以是属于政府系列的,也可以是属于企业系列的,更可以是行业组织、企业合作联盟、第三方机构、研究团队等。其中,大型科技巨头——如微软、谷歌等——也有专门的人工智能伦理规范部门或团队。从功能上而言,这样的组织可以是持续制定和更新人工智能伦理规范的,可以是倡议全球人工智能领域研发者、利用者加盟共同遵守人工智能伦理规范的,可以是观察和监督人工智能伦理规范执行落实情况的,也可以是研究如何将人工智能伦理规范同具体技术的设计与应用结合起来的。
相对而言,那些旨在密切观察人工智能风险、持续发布跟进研究报告、以监督和促进人工智能符合伦理规范为己任的组织,以及致力于将伦理规范融入人工智能研发、利用过程的研究团队(无论是否在企业内部),可信度和推动力会更高些。例如,有评论指出:“关于人工智能伦理的报告并不匮乏,但其中的大部分都无足轻重,充斥着‘公私合作’以及‘以人为本’之类的陈词滥调。他们不承认人工智能造成的社会困境有多么棘手,也不承认解决这些困境有多么困难。‘人工智能现在研究所’的新报告却非如此。它毫不留情地审视了科技行业在没有任何可靠和公平结果保证的情况下,竞相沿着人工智能的方向重塑社会。”缇姆尼特·吉布鲁的研究团队发布的“数据集的数据表”,从2018年3月23日第一次发布到2021年12月1日,已经经历八个版本,被引用达2263次。当然,软法促进的可靠、有力组织之存在,通常以此类组织生存和发展的制度—公共制度的或企业内部制度的—容许空间为前提。
二是对抗机制。对企业不在乎或疏忽人工智能伦理规范进行批评的舆论本身是一种形式的对抗。在此需要特别指出的是来自专业人员或利益相关者(stakeholder)的针对人工智能伦理风险而采取的对抗企业的行动,无论这些人员是在企业内部还是在企业外部。除了前文提及的谷歌公司在其员工抗议下停止与美国国防部合作军事人工智能项目的例子外,2019年,谷歌公司还曾经在数千名员工的抗议下,解散了刚成立一个多星期的人工智能伦理委员会(正式名称是“先进技术外部咨询委员会”),因为其中来自公司以外的成员或其所属组织被指对跨性别者有不公评论、对气候变化持怀疑态度或者与人工智能的军事利用有关。2018年,在时任美国总统特朗普将非法移民孩子与其家庭隔离的政策备受争议之际,微软与美国移民局在人脸识别技术上的合作,也受到了微软员工的抗议。2023年5月2日至9月27日,代表11500名编剧的美国编剧协会因与电影电视制片人联盟发生劳资纠纷而组织了为期148天的罢工。罢工的一项诉求就是像ChatGPT这样的人工智能只应被用作一种帮助研究或推动脚本想法的工具,而不应该取代编剧。最终,罢工取得了胜利,双方达成的协议被认为是树立了一个对于人工智能的使用进行集体谈判的重要先例。这些来自专业人员或利益相关者的抗议是出于他们对人工智能伦理规范的认知和坚持,或者出于他们本身的利益受到人工智能发展的威胁,其主张不见得对,但确实是一种可以促进企业遵守软法的力量和机制。“越来越多富有意义的针对人工智能负责任发展的行动来自工人、共同体倡议者和组织者。”而这种力量和机制的存在,当然也需要依托于更广阔的企业与员工、企业与外部之间关系的制度空间、文化背景。
三是监督机制。就广义的监督而言,舆论、对抗同样属于监督机制。然而,软法合规监督还有其他更多样化的表现形式。早在2015年,盖瑞·马秦特教授就曾经和文德尔·瓦拉赫(Wendell Wallach)先生一起提议成立名为“治理协调委员会”的机构,目的不是重复或取代现有许多组织在人工智能治理方面的工作,而是如交响乐团指挥一样起到协调的作用。这个机构并未成立,但他们预设其应该承担的功能中有多项是与监督相关的,如监控和分析(认定人工智能治理计划实施的差距、重叠和不一致之处)、早期预警(指出正在出现的新问题)、评估(为治理计划实现目标的情况评分)、召集解决问题(召集利益相关者就特定问题商议解决方案)。换言之,与之前所述的组织机制结合,若有相对独立的组织—无论是在企业内部设立类似伦理审查委员会的机构,还是在企业外部设立更为中立的社会组织—承担起监控、分析、预警、评估、共商方案等监督功能,就可以使人工智能伦理规范得到更好的落实。
人工智能软法是与科学技术紧密关联的,也因此被广泛认为是需要由人工智能专家研究制定的。“人工智能伙伴关系”作为一种联盟,将“公众”和“利益相关者”区分开,前者是需要教育和调查的,后者是科学家、工程师和企业家,是进行教育和调查的;其又将利益相关者区分为“专家”和“其他利益相关者”,前者是创造或应对人工智能的科学界领先者,后者是在广大范围内存在的产品使用者、购买人工智能方案的大型企业或者其所在领域被人工智能彻底改变的大型企业。“专家促使人工智能发生,其他利益相关者让人工智能发生在身上。”正因为此,将人工智能软法落到实处,最重要的是专业人员在技术开发过程中进行“合乎伦理的设计”、开发“合乎伦理的人工智能系统”。而专业人员如何能把伦理价值嵌入人工智能/自动化系统的开发,是需要技术方法论的支持的。
前文已揭,许多人工智能伦理指南或原则是抽象的、含糊的,这主要是因为指南或原则的制定者希望能够尽可能将其适用于广阔的人工智能领域。但是,究竟如何才能在特定人工智能研发或利用中执行和遵守这些宽泛规范问题,对于想要做到合规的行动者而言,也会成为一个棘手问题。因此,除了技术方法论—往往是普遍适用于多个情境的方法框架或模块—以外,还需要结合特定人工智能的使用所引发的特定伦理关切,制定出更具针对性的伦理基准。日本东北大学的研究人员翁岳暄(Yueh-HsuanWeng)与平田泰久(YasuhisaHirata)曾经发文探讨对辅助机器人的合乎伦理设计,文章指出,床位转移辅助、洗浴辅助、行走辅助、排泄辅助、监护和交流辅助以及护理辅助的机器人,各有比较突出的、不同的伦理关切,需要分别特殊对待。他们的研究虽然并不有意指向或者有意拟定任何人工智能伦理规范的基准,但是,这种结合人机互动(human-robotinteraction)的特点而指出每一种机器人需要应对的特殊伦理问题,其实就是具有基准意义的。这对于企业或其技术人员遵守人工智能伦理规范有着更具针对性的导引作用。
无论是在软法最初兴起的国际法领域,还是在人工智能软法领域,都已经有经验研究表明软法在未来的可能硬法化前景,或者软法被吸收进入硬法框架之中,这会给软法的实施增加动力或压力。例如,安德里亚斯·齐默尔曼教授在国际软法研究中发现,在早期阶段,不具有法律约束力的协定可能就已经规定了各国未来愿意接受的、作为未来有法律约束力条约组成部分的条件,这样的谅解备忘录是未来条约的先驱,有着“前法律功能”(pre-law-function),可以被更好地实施。就人工智能软法而言,最初阶段进行实地试验的软法,之后可能会被正式立法纳入传统的监管体系之中。如“未来生命研究所”曾经于2017年发布阿西洛马人工智能原则(Asilomar AIPrinciples),如今,美国加利福尼亚州已经将这些原则写入州立法之中。