专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
CHINADAILY  ·  跑鞋,是越贵越好吗? ·  昨天  
主编温静  ·  人事 | ... ·  2 天前  
主编温静  ·  最新!多家电视台发布声明 ·  3 天前  
51好读  ›  专栏  ›  新技术法学

华政学报 | 戴维 王锡锌 算法透明机制的局限性及其克服

新技术法学  · 公众号  ·  · 2025-02-03 15:53

正文



算法透明机制的局限性 及其克服





作者简介



戴维 北京大学法学院博士研究生



王锡锌 北京大学法学院教授,法学博士






目  次

一、问题的提出

二、算法透明的理论逻辑与立法现状

三、算法透明的规则表达及其现实困境

四、算法透明机制的重构

五、结语




摘  要

在算法治理语境中,算法透明被视为一种解决算法黑箱问题的主要机制。算法透明机制已得到广泛讨论,在理论上发展出以技术披露和决策解释为核心的双线模式。双线模式要求算法技术能够被公众“看透”或“理解”。但该模式未能充分考虑算法可解释性障碍和公众认知局限,在实践层面遭遇来自技术和制度的双重挑战,这可能导致透明机制的失效和透明度期待落空。鉴于可解释人工智能的技术属性,伴随以算法信任为核心的治理理念的兴起,我们需要反思算法透明机制的局限,完善面向公众的算法透明机制。这种“面向公众的算法透明机制”应当以提升公众信任为目标,将透明机制作为信任沟通的工具,向公众传递有助于算法可信度评估的重要信息,建立真正服务于公众的算法透明机制。




关键词

算法透明 算法信任

可解释人工智能 算法治理


一、问题的提出


算法技术已深度介入人类生活的方方面面,人类已然置身于算法支配的世界,但公众却“不知规则、不知理由”。弗兰克•帕斯夸莱(Frank Pasquale)教授将这种情形描述为“算法黑箱”。长期以来,学界将透明机制作为解决算法黑箱问题的首要方案,希望通过披露算法技术信息使公众了解算法运作逻辑,或者通过说明理由使公众理解和接受算法决策,进而构建出以“看透技术”和“理解决策”为核心的算法透明双线模式。从呼吁公开源代码、披露算法模型系统功能信息,再到事后解释具体算法决策,学者们不断尝试通过公开、披露和解释手段的拼接组合,寻求彻底打开“黑箱”以实现透明的方法。然而,与理论设想形成鲜明反差的是,这种双线模式在规范表达和制度实践中均陷入困境。学界也不乏质疑算法透明必要性和可行性的声音,甚至有观点直指算法透明无法满足人们对它的功能期待,既不可行,亦无必要。

本文认为,算法透明机制所面临的困境主要在于,沿袭传统透明度逻辑而建构出的双线模式忽视了“算法黑箱”与“权力黑箱”在成因及特性方面的根本差异,导致算法透明机制“目标—手段”的不匹配和功能失灵。目前,算法治理理念呈现出由技术中心向以人为本的转变,算法信任作为算法治理的统领目标已经成为共识,这可以为陷入困境的算法透明机制指引新的发展方向,使算法透明机制真正为公众服务。


二、算法透明的理论 逻辑

与立法现状


(一)理论沿袭:从传统透明到算法透明

传统透明理论通常将看透一个系统内部的能力与有效控制和问责该系统的能力相关联。作为帮助公众直接观察系统的窗口,透明机制要求公权力机关向公众公开决策内容,披露决策程序,并论证决策和行为的正当性与合理性,以此对抗权力运行中的秘密、肆意和腐败。透明机制有利于保障公民“知其所以然”的尊严性权利,也有助于促进理性的公共讨论空间的生成,还可以间接增强决策机关的可问责性。算法的使用增加了决策权力的封闭性和秘密性。算法技术上的垄断性、知识上的高门槛和运行程序上的自主性,不断淡化权力运行中的反思性和开放性要求,进一步加剧决策机关与公众之间的信息不对等,以及决策权力和公民权利关系结构的失衡。人们期待算法透明可以弥补这种信息不对等和权力/权利关系的失衡,即通过“看透”(see through)算法的运作逻辑加强过程控制,或者通过“解释”算法决策实现理由控制。过程之治和理由之治相结合,可以使人类摆脱算法操纵,实现对个体的自主、自由和尊严的维护。

基于“看透”和“解释”逻辑,算法透明形成了包含事前技术披露和事后说明理由的双线模式。尽管学者们使用的名称不同,但大体具有相似的建构逻辑。具体而言,源代码公开被视为最彻底的“看透”。在开源无法实现的情况下,算法模型参数、结构、数据集等重要技术内容的披露也能在一定程度上达到“看透”的效果。“解释”则指向公众说明某一具体算法决策的理由和影响因素,以算法解释权为表现形式。

(二)立法现状:从间接解释到专门规定

在人工智能立法出台之前,各国大多试图借助个人信息保护和信息公开制度间接实现算法透明,但效果不尽如人意。以欧盟为例,学者们试图从欧盟《通用数据保护条例》(General Data Protection Regulation, GDPR)相关条款推导和解释出信息处理者的告知义务以及数据主体获得解释的权利,但也受到了较大的质疑。我国也有学者尝试从《个人信息保护法》(以下简称“个保法”)中推导出算法告知义务和算法解释权,但这种由多个条款“嫁接合成”的算法透明机制,规范基础复杂,规范要求不够明确,不仅会使信息处理者无所适从,也会导致个体行权困难。

也有学者主张利用政府信息公开立法实现算法透明,认为算法的本质是行政规则,以行政法规、规章和规范性文件为文本载体,应属于《政府信息公开条例》第20条第1款规定的主动公开范畴。尽管自动化行政中的算法可以被视为法律的转译,但代码能否直接等同于立法文件存疑。另外,美国进行的调查也表明信息公开立法不足以支撑公众了解算法,其阻碍来自:(1)商业秘密保护,或者政企合同约定对算法保密;(2)不存在可供公开的文件或记录,如政府未就算法适用情况进行记录,或者算法资料在合作算法供应商之手;(3)政府披露意愿不高,敷衍了事,表现为对公开申请的简略答复、不答复或消极拖延等。

由此可见,个人信息保护及信息公开立法无法为算法透明提供坚实的规范基础。这也并不奇怪,因为上述两种制度的立法目的本就不在于算法规制(尽管规制范围与算法有所交集)。随着人工智能专门立法的推出,算法特别是机器学习类算法,有了更具体和更具针对性的规范根基。2024年3月,欧盟通过首个人工智能专门立法《人工智能法》。我国也在大力推进人工智能专门立法,在2024年相继公布了《人工智能法(学者建议稿)》和《人工智能法示范法2.0(专家建议稿)》。

欧盟《人工智能法》第3条第1款将“人工智能系统”定义为“设计用于不同程度的自主性运行,并且在部署后可能表现出适应性的机器系统,并且对于明确或隐含的目标,可以根据其接收到的输入推断(infer)如何生成可以影响物理或虚拟环境的输出,如预测、内容、建议或决策。”简单而言,该法规定的人工智能系统指向具有推断功能并且可以自主运行的算法,与具有黑箱争议的算法范围重叠。

根据人工智能的风险程度,欧盟《人工智能法》为其匹配不同的透明义务,可分为以下四类:第一,针对高风险人工智能系统的技术性信息披露义务,服务于人工智能系统设计者、提供者以及监管者。该义务以该法第11条和第13条规定为代表,内容涉及多项条款。第二,针对特定人工智能系统的标识和告知义务,服务于公众,主要是一种提醒义务。第三,针对高风险人工智能系统的登记义务,服务于公众。如该法第49条规定,高风险人工智能系统在被投放市场或者投入服务前,系统提供者以及作为部署者的公权力机关应当按规定在欧盟数据库中登记。登记信息包括系统提供者和部署者主体相关信息(如姓名、地址、联系方式),以及系统相关信息(如系统名称、基本信息描述、是否投入市场、合格性和认证信息等)。第四,个体针对高风险人工智能系统决策获得解释的权利。该法在第86条规定,在满足以下要求的情况下,个体有权要求部署者就人工智能系统在决策程序中的作用,以及影响决策的主要因素做出清晰且有意义的解释:(1)高风险人工智能系统(附件三第二点列举的系统除外);(2)决策是基于系统的输出做出的;(3)个人认为决策对其健康、安全和基本权利产生了法律上或类似程度的不利影响。

我国两版人工智能立法建议稿都将透明原则作为一项基本原则。尽管两稿分别从义务和权利角度规定,但就算法披露而言,两版建议稿规定较为一致,即要求提供者告知:(1)算法基本信息,如目的、功能、运行机制、风险等;(2)算法监管信息,如许可、备案信息;(3)用户权利及救济途径;(4)法律和行政法法规规定的其他信息。就决策解释而言,两版建议稿均规定当人工智能的产品或服务对个人权益有重大影响时,个人有权要求提供者解释说明。


三、算法透明的规则表达及其现实困境



(一)理论预期与规则表达的分野

与算法透明的理论预期相比,立法设置的透明标准并不高。首先,立法并不要求公众“看透”算法。这表现为透明义务主体对披露内容保有较高的裁量自由,埋下了操纵“透明”的隐患。以欧盟《人工智能法》为例,该法将数据库作为公众了解算法的信息源,但要求算法提供者和部署者登记的信息多为他们自己对系统的描述、说明或摘要。这种间接信息的可靠性、精细度和真实性远不如原始的(raw)、详细的(detailed)和接近源头的(close-to-the-source)资料和信息。同样,我国两部立法建议稿仅对告知内容进行了简单列举,并不能保障告知信息足以使公众对算法形成全面和正确的认识。有学者敏锐指出这种过度间接的(heavily mediated)、事先编辑的(pre-digested)信息披露增加了信息被有意处理(如简化、省略、避重就轻)来误导公众的风险,在无法确保信息准确可靠的情况下,只能实现一种被操纵的,甚至“表演性”的透明。与之形成鲜明对比的是,欧盟《人工智能法》附件四明确要求相关主体向监管机构和下游算法部署者披露算法技术信息。特别是向主管机关提交的技术文件,该法要求提供原始的、直接的技术资料,并没有给义务主体留下多少“加工”空间。可以看出,立法者支持下游部署者及监管机构获取一手资料以“看透”算法,但未对公众提供类似程度的透明要求和规范保障,换言之,立法者认为公众并无必要“看透”算法,一种浅层次的知情和了解即可满足规范要求。

其次,立法并未为算法解释权的行使提供充分的制度保障。例如,欧盟《人工智能法》第99条明确规定,违反特定人工智能系统的标识和告知义务需要承担巨额罚款,但该法未就算法解释权的履行规定任何奖惩措施。追溯欧盟立法过程亦可看出端倪。尽管自立法之初,舆论就不断呼吁确立算法解释权,但直到最终稿立法者才将解释权纳入本文,其态度可见一斑。相较而言,我国《人工智能法(学者建议稿)》概括性地规定了个体投诉与起诉的权利以及使用者的侵权责任,但无法解决算法解释权能否单独作为一项诉权、如何判定瑕疵解释、如何对瑕疵解释或不解释进行救济,以及如何惩戒相关主体违反解释义务的行为等关键问题。在此情况下,算法解释权可能最终沦落为一种象征性权利:无人在意,无人启用,无人监督。


(二)算法可解释性与可理解性难题

尽管种种外部因素可能会使立法者不愿追求较高的透明度,但影响算法透明可行性的决定性因素是算法可解释性的技术边界。算法“可解释性”存在两个层次的理解:一是Interpretability(可解释性),主要从技术层面强调算法逻辑能否被人类所观察和解读,这一特性在算法设计之初就确定了;二是Explainability(可理解性),它更侧重从受众(Target Audience)角度要求根据不同的受众及解释目标,向他们提供定制化的信息,使他们明白算法功能及理解决策。

上述两术语之间存在细微的区分和递进关系。黑箱类算法或是建立于子符号主义(sub-symbolism)之上,或是集成了多个子算法致使系统整体不具有显式的逻辑和规则,背离了人类直观理解的特性而不具有可解释性。但随着可解释人工智能(Explainable Artificial Intelligence,以下简称“XAI”)的发展,对于这类自设计之初就无法或不易解释的算法,人们可以利用外部解释机制来探寻影响算法决策的因素,这也被称为事后解释技术(post-hoc explainability techniques)或者后模型可解释性(post-modeling explainability),其目的就在于预测或解答一个黑箱模型的输入如何产生输出。

部分学者乐观地认为,在外部解释机制的帮助下,算法黑箱不再是无法逾越的障碍。但可惜的是,现存外部解释技术在普适性和准确性上仍然存在无法克服的障碍:它既不能保障解析所有的黑箱,也不能确保解答一定准确。具体而言,尽管可解释人工智能研究在传统小规模模型上已经取得了一定的成果,但对主流基础大模型的研究尚处于起步阶段。模型体量越大,层级越复杂,解释效果越差。此外,这些解释技术只是原始模型的简化、模拟或局部提取,并非其逻辑的忠实复现。应用不同的XAI技术于同一模型可能会凸显不同的影响因素或权重。例如,有学者采用40个不同的数据集和不同的反事实解释方式来解释黑盒模型,发现不同的解释技术会识别出不同特征集合作为影响模型结果的关键因素,即便识别出相同的特征集合,不同解释技术对于特征重要性的排序也有所不同。解释的提供者可以利用这一点选择性地包含或排除特定影响因素误导公众,例如隐藏种族或性别等歧视性要素在算法决策中的作用。著名计算机学者鲁丁(Cynthia Rudin)曾一针见血地指出,解释模型不可能对原始模型完美保真,如果解释模型的效果可以等同于原始模型,那我们在一开始就不必采用原始模型。她要求对XAI技术在高风险领域的适用保持警惕。此外,可解释人工智能研发和利用需要高昂的成本,特别是在真实场景下对真实模型展开大规模评估,将产生难以想象的费用。在缺乏强制要求或有力激励的情况下,很难保障算法研发者和部署者愿意进行相关投入。由此可见,可解释人工智能确实是充满希望的发展方向,但基于目前技术发展状况,它尚不足以彻底突破黑箱的阻碍。

最后,算法可解释并不等同于算法可理解。对普通大众来说,缺乏数学和计算机等形式符号语言向自然语言的转化,以及举例、比喻等修辞方式的帮助,专家眼中的简单模型对大众来说依然属于“黑箱”,有学者将这种情况称为“算法文盲”。这要求算法透明机制考虑受众的知识水平和理解能力,对披露的信息进行“二次加工”以达到通俗易懂的效果。这引发了算法披露在“信息的真实性”与“信息的可理解性”之间的矛盾,算法透明陷入两难境地。


(三)算法透明与风险规制的张力

算法透明同风险规制间的张力,是它在算法治理体系中被边缘化的重要原因。目前的算法治理以风险规制为核心,即根据风险高低匹配规制工具,如欧盟《人工智能法》将人工智能系统划分为不可接受风险、高风险、有限风险和低风险四个等级,并根据等级划分设置不同程度的透明要求。但将透明程度与风险等级挂钩的制度设计是否合理值得探讨。一方面,该法的算法风险划分标准本身就存在争议;另一方面,这种制度设计没有回答为何低风险算法不需要透明。对于公众来说,不论风险高低算法决策都是黑箱,而他们只能获得一部分算法的信息和解释,这会影响公众对算法的整体信任。此外,规范意义上的风险划分,并不一定符合公众的风险感受。当公众认为某个算法系统可能存在问题时,并不会仅因为它在规范意义上被划分为低风险,就接受相关责任主体保持沉默。

此外,算法透明“基于权利”的机制设计未能很好地融入“基于风险”的算法规制体系。“基于风险”的规制模式是指监管机构根据既定规制框架,对监管对象的合规状况进行持续性监督,重点在于监管与合规。而算法透明机制下,不论是知情权还是解释权,都是通过个体赋权对抗算法支配,重点在于权利保障和救济。赋权模式和监管模式表现为两套迥异的规制逻辑和规范制度,需要在立法中妥善处理两者的关系。就欧盟《人工智能法》来看,显然有些顾此失彼。该法未能就公众的知情权和解释权设置完整的权利保障框架。公众可能疑惑:“获得了解释,然后呢?”或者“不满意解释,又能如何?”在这种情况下,以增强个体控制为目的的赋权式的透明工具必然走向失败。


四、算法透明机制的重构


双线模式的算法透明机制低估了算法可解释性的技术局限,同时未能就算法透明的受众设定一个切实的“人格化标准”,导致该机制的可行性及有效性均受到质疑。基于此,应当打破过往透明机制的思维惯性,正视技术发展现状,明确以公众为受众,重新界定算法透明的制度目标,并重塑算法透明的制度内容。

(一)目标矫正:以提升公众信任为目标

近些年来,“可信任人工智能”(Trustworthy AI)已在全球范围内成为引领人工智能发展的核心要求和原则。2019年,欧盟委员会高级专家组颁布《可信人工智能伦理指南》率先将可信任人工智能作为基本目标。2021年,欧盟委员会发布《人工智能白皮书:通往卓越和信任的欧洲路径》,强调信任是接纳人工智能的先决条件,提倡构建一个让公众放心的人工智能“信任生态系统”。欧盟《人工智能法》在序言中明确其立法目标是促进以人为本、值得信赖的人工智能的发展,使欧盟成为可信人工智能的全球领导者。与此同时,美国人工智能战略和政策中“可信人工智能”的表述也大幅度增多。如:2020年,美国颁布行政令《促进可信赖人工智能在联邦政府的应用》,指出各机构应当以促进公众信任和信心的方式设计、发展、获取和利用人工智能;2023年,美国再次专门发布行政令,强调要以安全、可靠、值得信赖的方式开发和使用人工智能。2021年9月,我国新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,将可信可控作为人工智能活动应遵循的基本伦理规范。2024年3月,联合国大会通过首个关于人工智能的全球决议,决心就发展安全、可靠和值得信赖的人工智能达成全球共识。

在算法治理中引入“信任”这一评判要素,展现了以用户/公众为中心的视角。信任是一种“受信任方有能力及意愿按照预期行动,同时信任方愿意承担不确定性”的双方关系。有学者认为信任是无论是否具有控制或操纵对方的能力,都预期对方会做出对自己而言重要的行动。有学者强调信任涉及一个对他人是否可信的评估过程,评估后判断对方会为一定的行为或基于品行对个体形成信赖。有学者用乘坐飞机时的心态类比,尽管不知道飞机制作和飞行的原理,但我们相信这一技术已经过充分的测试且符合严格的标准,因此我们是安全的。与之类似,算法信任是指即便存在一定程度的风险和不确定性,公众仍然愿意接受和使用算法,因为他们认为算法会按照预期运行。这种信任无比重要,“人工智能未来的任何开发、实施和使用都与公众的信任和支持立场密切相关”,它不苛求算法风险消减至零,只追求将算法风险控制在公众可接受的程度内,这种宽容为技术发展和创新创造了空间。

算法信任反映了人工智能以人为本的发展态势。它转变了过去技术中心(Technic-centric)的局限视野,强调关注技术与用户之间的互动以及公众感受。过去,公众常常被贴上外行和无知的标签而被排斥于算法治理之外。但算法治理不能沦为技术人员的独角戏,算法信任要求增强公众参与,改变他们在治理中的边缘化地位。毕竟公众才是算法风险的最终承担者,他们的充分参与是保障算法治理民主性和手段合理性的关键。

让公众相信他们处于安全的算法环境之中,以更轻松的心态享受先进技术带来的便利,是算法治理的重要目标之一。算法信任的提出并非一场概念游戏,它标志着算法治理理念的重要转变,并为算法透明机制重塑指引了方向。

(二)功能期待:信任沟通工具

信任理论认为信任的建立受信任方A的信任倾向(Propensity to Trust)与受信任方B的可信度(Trustworthiness)两方面影响。在算法信任语境中,个体对算法(及其产品和服务)产生信赖的难易程度不同,这种差异反映了他们的信任倾向。研究表示,用户对算法的信任倾向受到其固有特征(如性别、性格)、后天特征(如教育水平)、用户态度(如用户对人工智能的需求和期待)以及其他外部变量(如人工智能产品是否经熟人介绍)的影响,具有强烈的个体性。算法可信度则是算法是否值得信任的客观依据。欧盟《可信人工智能伦理指南》将人工智能的合法性、道德性以及稳健性作为衡量人工智能可信度的核心要素。总的来说,人机信任关系的影响因素可分为技术因素(如算法目的、性能和过程)、人的因素(技术提供者或责任人以及用户自身特点)以及制度环境因素(如算法治理体系)。

算法信任是用户基于对算法可信度的评估而形成的主观态度。理想状态下,用户信任应当与算法实际可信度相匹配,形成一种“有保证的信任”。信任的适度非常重要,因为盲目信任会使个体毫无防备地暴露于算法风险之中,过度警惕则会引发不必要的恐慌和抵制,这两种状态都不利于算法技术与人类社会的和谐共进。

算法信任产生于公众的信任评估。算法透明在此评估过程中发挥重要作用,因为公众的信任无法直接通过索取获得,而需要算法可信度的展示来赢得。透明机制能够成为算法可信度展示的窗口和渠道,帮助公众形成有保证的算法信任。因此,以信任建立为目标的算法透明机制,虽然本质上依然发挥着信息传递和沟通作用,但信息内容和沟通方式已大不相同。

(三)制度建构:透明内容和方式的转变

信任评估包括直接和间接两种方式,算法透明据此呈现出不同的制度形态和内容。需要强调的是,在这里的讨论语境中,我们将算法透明机制的影响对象设定为普通公众,而非监管人员或技术专家。公众较难通过直接评估的方式建立算法信任。直接信任的建立依赖于信任方对受信任方直接的观察和评估,它与“看透”式透明具有相同的逻辑,即通过获取代码、数据集等算法技术资料而对算法本身的性能、运行状况与合目标性进行评估,从技术层面判断算法运行是否符合预期。由此可见,直接评估更适用于专家审议场景,因为一方面专家们具备直接评估算法的能力,另一方面专家审议可以通过控制人数和采取保密手段来有效平衡信息披露与商业秘密保护之间的关系。“间接信任”则是基于中介产生的信任,包括:(1)专家信任(或称知识信任),以算法领域的专家学者、科研机构、专业组织或科技企业为中介;(2)制度信任,以规范和监管体系为中介。经中介背书,即便公众不具备直接评估算法的专业能力,他们依然可以信任和使用算法。

就专家信任而言,这里的“专家”泛指研发、部署和评估算法系统的责任机构或个人。调查显示,研发主体身份影响算法信任,如相较于政府和企业,公众更倾向于信任由本国大学、科研机构或国防组织负责研发的人工智能系统。有学者指出,在人工智能信任的议题上,“信任的二元性”(对技术的依赖和对技术提供者的信任)特征尤为重要。因为公众通常对算法知之甚少,无法直接用“理性”判断技术是否可信,只能依靠对研发人员(或责任机构)的信任度来选择算法产品或服务。这种信任模式并不罕见,常见的例子如消费者因信赖某企业/品牌而优先购买其产品。因此,算法研发、部署和评估等环节责任主体的透明度至关重要,披露信息应当涵盖责任主体名称、研发团队成员组成及背景、机构资质等内容,这有助于公众形成自己的信任判断。此外,责任主体透明还有助于公众监督和问责。身份披露使隐于幕后的责任主体走向台前,接受公众审视和监督,社会声誉机制也会自然地发挥作用。在商业领域,企业会通过宣传其专家团队来塑造其可信的形象,争取公众对其算法产品的认可和信任。公权力机关在这方面显然不够透明。目前,政府部门使用的算法产品和提供的算法服务大多是公私合作的产物,由外部企业负责算法的研发、运行和维护。然而,公众对合作情况却知之甚少:他们既不清楚政府在何领域用了何种算法,也不了解公私合作过程是否合法合规;既不知道算法由谁研发和运行,也不清楚算法是否按照预期正确运行。有学者批评:“智慧城市(Smart City)的智能之处在于私人供应商无法穿透的大脑,而唯一对公众负责的政府却变得空洞、无知和黑暗。”对于公众而言,保障政企合作的透明比向他们披露算法资料更有实际意义。此外,专家对算法可信度的判断(即专家意见)也会影响公众判断。在算法这一高度专业化的领域,常识和直觉难以发挥作用,专家意见会成为公众判断的主要参考。这要求专家在给出专家意见时不能只抛出结论,还应当详细阐述其背后的依据,包括他们为此进行了哪些工作以及遵照何种规范、标准和流程。即便公众不懂技术,但若专家说理过于简略、含糊其辞或相互矛盾,自然无法获得公众的认可。

就制度信任而言,一个完善的算法治理体系对增强公众对算法的整体信任至关重要。当社会具备完备的规范框架(结构保障)并能够在此框架中正常运作(制度常态)之时,公众会对新技术保持更宽容和开放的态度,这种心态就是制度信任。相信政府可以有效地进行监管活动是公众接受技术风险的重要前提,这使技术风险不必被严苛地消减至零,为算法发展创造必要的空间。制度信任是一种默示信任(default trust),即公众可以假定算法产品或服务是可用的,除非有相反的证据出现。这种心态可见于食药品领域:在大多数情况下,公众会默认他们从正规渠道购买的、符合国家标准的食药品是安全的,无须时刻怀疑、一一检验。同样,在算法场景中,通过外部约束机制,公民知晓不论技术提供者主观意愿如何,他们研发和部署算法必须遵循一定的规范、标准和流程,这可以降低公众对算法的不安感。

目前,算法治理正在向着行政监管、企业自我规制以及社会监督三方协同的综合治理体系迈进。算法透明机制应与这一治理体系妥善衔接,以帮助公众形成整体的算法信任感知。

首先,加强行政监管中的信息披露,有助于提升公众对算法治理的认知。披露内容应当涵盖规范体系、监管机制及其执行情况。一方面,透明机制设计应与前端监管框架相匹配。例如,我国人工智能监管制度涵盖许可管理、备案审查、风险评估、算法审计等多种措施。相应地,算法透明机制也应当囊括算法市场准入信息、算法备案信息,风险评估报告、算法审计结果、算法合格认证以及算法相关处罚等重要内容。另一方面,为更好地服务于公众,算法透明要求整合信息沟通渠道,实现监管信息的系统性披露。具体而言,我国算法相关立法分散,监管事项繁多,增加了透明的难度。例如:算法备案信息公示于互联网信息服务算法备案系统平台;互联网企业和算法产品的处罚信息需要通过管理部门网站、企业信用信息公示系统或信用中国网站查询;公众则更依赖传统媒体的集中报道或微信公众号、抖音等新媒体推送和转载。碎片化的信息内容和分散的获取渠道,使公众如管中窥豹、雾里看花,不利于形成全面的、健康的算法认知以及建立适度的算法信任。因此,算法透明机制要求行政机关牵头建立统一的算法信息披露平台。欧盟《人工智能法》中的数据库制度,可以视为信息集中披露的一种尝试。尽管该制度在信息披露的全面性、深入性以及实时性方面有待优化,但它确实为公众提供了一个“串点成线”的机会,增强了高风险人工智能系统的透明度和可追溯性。算法透明还要求信息披露以“用户友好”的方式进行,积极采用先进的数据处理技术和创新性的可视化措施,如以颜色深浅直观展示算法风险等级、弹窗提醒用户注意高风险企业,或以进度条展示算法产品合规进展等。还可以积极借鉴商业平台的用户服务方式,引入智能助手和对话系统,为用户提供“定制化”的信息披露服务。最后,公众可能希望管理部门直接给出算法产品安全与否的答案,如欧盟采用的人工智能CE标志可以为公众提供直观的参考。我国应当积极推进算法认证服务,为合格的算法产品“贴标”,便于公众识别并选择可信赖的算法产品。







请到「今天看啥」查看全文