我国近年来高度重视算法影响评估制度建设,并展开了一系列具有标志意义的实践行动。2023年8月15日,《生成式人工智能服务管理暂行办法》正式施行,其中明确指出,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估”,同时也要求在生成式人工智能技术研发过程中需要“开展数据标注质量评估”。为进一步落实该文件,2024年2月,全国网络安全标准化技术委员会发布了技术文件《安全基本要求》,从语料安全、模型安全、安全措施等方面提出了安全评估要求,为生成式人工智能服务提供者的安全评估工作、相关主管部门评判生成式人工智能服务安全水平提供了重要参考。尽管作为技术文件并不具有强制性,其治理效果仍然取决于监管部门、一线技术研发与应用主体、市场第三方评估机构等利益相关主体如何理解、使用、执行,但从制度演化视角来看,《安全基本要求》是我国国家层面治理机构第一次对人工智能算法安全评估的对象、范畴、标准等实质性内容提出制度要求,对于我国完善人工智能算法安全评估制度建设具有关键性的推动作用。换言之,《安全基本要求》很有可能作为催化剂加速我国算法影响评估制度的探索、完善乃至成熟进程。在此背景下,前文围绕算法影响评估的制度定位、应然层面的关键机制、实然层面的模式比较这三个方面的具体分析,将为我国该领域的未来制度建构与改革提供三点启示。
第一,合作治理应成为算法影响评估制度构建的指导理念和价值遵循,在此过程中以敏捷性、实验性的方式累积治理知识、探索治理方案是算法影响评估制度改革的主要目标。算法影响评估要求监管者、被监管者、第三方等不同主体间形成动态、反复、迭代的合作治理过程,并在此过程中累积治理知识、探索治理方案。对监管者而言,“合作治理”意味着监管权力的分散,以及在此过程中与被监管者关系的改变。虽然算法影响评估可以作为一种监管压力施加在被监管者身上,但监管者需要被监管者主动寻找评价方案和风险救济措施。在此意义上,监管者的工作重心便从传统意义上监督、惩罚被监管者,转变为了利用机制创新来激励或“倒逼”被监管者的主动行为,二者由此构成合作关系。对于被监管者而言,“合作治理”既意味着对其自主性的认可,同时也意味着其需要接受合作框架的约束并承担责任。信息不对称和共同无知现象的存在,仍然使得更具有资源和信息相对优势的被监管者需要扮演更为积极主动的角色;同时,包括惩罚性默认在内的诸多机制创新为“倒逼”被监管者进入合作关系建立了边界条件。对于第三方而言,“合作治理”意味着需要发挥更多主体作用以建立更丰富、多层次的治理框架与体系。监管者与被监管者都可能存在“道德风险”:前者存在“监管俘获”问题,而后者出于保护商业秘密的需要而拒绝开放。第三方主体的引入既可能监督监管者行为,也可能为被监管者提供利益平衡的渠道(例如向第三方开放而不向公众开放)。
第二,开放性、责任性以及二者的兼顾应被视为算法影响评估的关键机制设计,应以此为基准来比较不同模式的优势与不足,进而选择适合中国发展与治理需要的算法影响评估制度框架。为实现合作治理的理念,算法影响评估要在开放性、责任性以及二者兼顾这三个方向上推进机制创新,而它们便构成了算法影响评估制度的关键机制。开放性是指人工智能算法影响评估应在评估主体、被评估对象、评估方法、评估工具等多个维度上避免边界的封闭与割裂,持续与所处环境发生关联,并在此关联过程中累进式地积累治理经验。一方面,算法影响评估需要“自下而上”地构建治理知识生成与积累的通道从而克服共同无知的治理困境,而开放机制便是治理知识生产、累积与再生产的根本源泉;另一方面,算法影响评估需要面对治理环境的复杂性和多样性,相同的算法治理问题与答案在不同治理环境下可能会包含不同含义,这些现象都要求人工智能算法影响评价需要保持对环境的开放性,以维持与环境的动态匹配。责任性是指算法影响评估需要在一定程度上回应实质性治理目标的实现与否,通过设定明确的、最低限度的合规标准以确保被监管者落实治理责任。考虑到算法影响评估的宽泛性,到底哪些内容应该被纳入最低限度的实质性治理目标范畴,以及如何设定“最低限度”,仍然是需要探索的实践性问题。值得注意的是,强调程序性要求的开放机制与强调实质性要求的责任机制并不一定是相互匹配的,二者可能存在内生的制度冲突。事实上,如果考虑到开放机制的初衷是激发被监管者参与合作治理的行为动机,那么其前提必然是监管制度本身存在宽泛、模糊地带,从而能够为被监管者提供可自由裁量与探索的空间,但责任机制纳入实质性治理目标可能会削弱这一前提。不仅使得影响评估制度具备了一定刚性,甚至可能将合作关系转变为对立关系,即监管者需要监督被监管者是否严格落实实质性目标要求。在此意义上,二者的平衡是算法影响评估制度设计的第三个关键机制。
第三,“技术-组织-社会”的系统论思维应贯穿算法影响评估制度构建始终,在各类系统框架的比较中寻找适合不同场景的差异化评估模型。在明确合作治理作为基本理念、开放性与责任性及其兼顾作为关键机制的基础上,算法影响评估制度设计的第三点启示在于寻找与特定场景相匹配的涵盖“技术-组织-社会”三个维度的系统模型。算法影响评估需要从宏观层面的制度设计走向微观层面可落地的具体指标或框架,而这便体现为算法影响评估模型的设计与选择。考虑到算法影响评估对象涵盖技术、组织、社会等不同层面,制度设计者便应以系统论视角勾勒出三个要素相互影响的不同关系,然后针对不同算法治理场景需要选择匹配模型。较有代表性的系统模型例如技术执行框架、“委托-代理”框架、“社会-生态”系统理论框架等。仍然需要强调的是,不同模型框架都代表着从不同理论研究视角对“技术-组织-社会”系统的差异化“简化”,而具体算法治理场景下的模型选择便因此主要体现为实践经验的探索、积累,而非一般性的理论范式。