一般理解认为,算法影响评估作为影响评估制度在算法治理领域的延伸,其分析单位应是算法系统的设计与应用过程,而分析对象则是该过程对个体、集体或环境等各个维度的多类型影响。这一定义看似清晰,却并没有对根本性制度问题做出界定和回答。典型疑惑如为什么算法治理需要影响评估,评估目的是作为监管惩处的依据还是服务于治理知识的累积,算法评估与算法审计等相关制度的联系和差别是什么,等等。概括而言,这些疑惑事实上都围绕着“为什么需要算法影响评估”这一问题而展开。下文将以算法歧视治理议题为例,对算法治理不同于传统技术治理议题的特殊性做出说明,进而解释算法影响评估制度在回应此种特殊性方面的价值。
算法歧视风险可能是人工智能技术普遍应用以来被频繁提及的算法治理风险之一,其普遍存在于各个决策场景(例如招聘简历筛选、信用评分评级、公共服务审核批准、犯罪风险评估、警力资源部署等),而这些决策场景往往都跟人们的切身利益紧密相关,尤其是与社会公平以及少数或弱势群体的特殊属性紧密相关,涵盖性别、种族、肤色、身体、收入、地域、行为偏好等指标。一般而言,从算法作为决策的技术功能实现逻辑和流程来看,引致算法歧视风险的原因主要可被总结为三点:算法决策目标选择的主观性偏差,具体指标既定前提下的数据集采纳和指标测度偏差,在指标和数据集既定前提下的模型架构采纳选择偏差。然而,理解了上述三点原因是否就意味着算法歧视治理问题就迎刃而解了呢?可能并非如此,算法歧视治理的复杂性和特殊性主要体现在以下两个层面。
一方面,建立在过错原则基础上的现行反歧视法律框架,不仅要求明确权益侵害的现实,还要求明确导致权益侵害过错的因果链条,而这二者在算法决策环境下都将面临新的不确定挑战。在传统的非算法决策环境下,导致歧视结果的原因往往是可解释、可重复、可预 期的;相比之下,算法决策逻辑则相反,尽管决策结果 基于概率计算的统计特征是可预期的,但每一次决策结果并不确定,由此使得歧视结果的追踪、确认必须建立在连续且大量的测试、记录、统计基础上,这也自然增加了歧视性权益侵害确认的成本和难度。同时,反歧视法律框架要求将决策者行为与被决策对象所处社会环境相独立,并通过比较可能的不同决策方案以判断决策者实际行为在影响受保护权益属性方面是否“中立”。然而,算法决策的嵌入性与不可穷尽性使这一“中立”原则面临新挑战:就嵌入性而言,与非算法决策相比,算法决策与社会环境的相互影响关系更为复杂,基于数据训练的技术逻辑导致其很难被独立于社会环境;就不可穷尽性而言,算法决策技术方案的多样性使得证明某一特定决策算法的歧视性最低(或“中立性”最强)较为困难。这也使得我们往往只能比较算法决策与非算法决策,而不能穷尽不同算法决策方案之间的结果差异,由此司法责任的界定标准也只能演化为判断算法决策者是否尽到了比较义务而非是否采用了“最中立”算法。
另一方面,歧视作为一种社会建构问题,在算法普及应用的情况下将可能出现过度简化或过度复杂化的双重困境,而它们都不利于针对算法歧视的追责与救济。诸多研究已揭示,歧视更多表现为社会建构问题而非生命特征属性问题,即歧视性结果并非源于不同个体生命特征属性的差异,而是社会生产生活进程的演化结果。例如,导致黑色族裔人群歧视性结果(或分化性结构)的根本原因是其成长、学习、工作的整个社会生产过程,而并不一定是种族或肤色等表面生命特征。在反事实假设情况下,将白色族裔人群置于当前黑色族裔人群的生存环境,其可能同样面临类似的歧视结果。在将歧视视为社会建构问题的视角下,算法决策普及应用带来的复杂性在于其将陷入或者简化、或者复杂化的“双重悖论”:对于不是建立在机器学习基础上的非人工智能算法而言,其要求将复杂现实抽象为具体变量,这将极大简化歧视作为社会建构问题的复杂性,可能产生“缘木求鱼”的治理错位结果,即针对具体变量的歧视风险治理措施可能错误定位问题内涵而起不到救济作用;与之相对,建立在海量数据学习、训练基础上的人工智能算法,其可能把握住了导致歧视结果的社会过程的综合性特征,但却受限于“不可解释”的技术逻辑而难以厘清因果链条,从而也将影响歧视问题的追责与救济。换言之,歧视作为社会建构问题的治理复杂性在算法决策普及的背景下才真正表现了出来。
算法歧视现象蕴含的治理挑战并非孤例,其事实上反映了算法治理的一般特征。第一,算法相对于环境的嵌入性将挑战过错原则和因果链条推定这两项既有制度基础。或者以单一变量代替现实中多重因素的综合影响,或者基于海量数据训练而将原本隐藏在表面现象背后的社会分化结构外化出来,算法与环境的这两种关系都导致建立在“过错原则”基础上的现有侵权法或责任法框架可能失效,试图追溯因果链条的基本原则在算法与环境的相互混杂中也难以被充分满足。第二,算法技术方案难以被解释、难以被穷尽的基本逻辑使得算法治理将始终处于动态演化过程之中,并要求敏捷性、实验性的治理改革。实现相同功能的算法技术方案的多重可能性,以及算法优化标准可能具有多重内涵的模糊性,都使得追求“最优算法”的技术努力幻化为“乌托邦”,任何试图提前界定而不做调适的治理思路都难以真正回应算法治理需求,治理与技术开发、应用伴随而生、伴随而变需要成为新的主导性理念。第三,算法应用风险往往以统计意义而非具体个案形式出现的基本规律,使得算法治理不得不陷入集体效用改善与个体权益侵害同时发生的公平性悖论之中,而这一治理风险并非传统治理框架的关注重点。算法应用的价值往往体现为统计意义上的指标优化和福利提升,但算法本身将始终存在“漏洞”的技术特点决定了个体权益侵害现象必然发生,前述算法难解释、难穷尽的基本逻辑又使得此种个体权益侵害不能在明确的责任因果链条下得到救济,如何破解这一公平性悖论便成为隐藏在算法治理不同案例下的共性要求。
以上三点一般性特征揭示了算法治理所需要面临的制度困境,即既有制度框架难以做出有效回应的原因。在此背景下,向算法技术开发、应用过程的治理延伸必不可少,而这也意味着治理机制的重构与创新。仍然以算法歧视为例,对该治理问题的回应需要对下述一系列问题做出回答:算法作为决策方式的应用要解决何种功能性问题,而衡量是否实现该功能的具体指标是什么,为什么选择该指标而非其他指标?测度该指标的具体数据集是按照何种标准选取的,其收集、维护、清洗过程是什么,其是否体现了现实决策环境的完整性?与其他方案相比,该算法决策方案在涉及利益相关方歧视性影响方面是否“中立”,这一结论是否经过测试和验证?不难看出,对上述问题的回答事实上构成了算法影响评估制度的基本内涵,而这也反过来说明算法影响评估作为一种治理制度,在回应算法治理问题、突破算法治理制度困境方面的必要性和重要性。
同时,如果考虑到信息不对称、共同无知等因素的存在,针对上述问题的答案往往是非唯一、不确定的,甚至是算法开发者、部署应用者都难以做出准确而完整的回答。在缺少标准答案的情况下,算法影响评估的制度定位就很可能不是作为监管惩处的依据而只能服务于治理知识的累积、治理方案的探索,这也意味着算法影响评估要求监管方、被监管方形成“合作治理关系”而非“命令-控制”结构。在此意义上,算法影响评估便与算法审计等相关制度具有了本质上的差异。从共性上讲,算法影响评估和算法审计都将治理要求延伸至算法设计、应用过程之中,但二者制度定位的关键差别则在于:算法审计的关键是评估“名义值”与“实际值”的差别,即判断算法系统的实际运行过程与既定、明确规则要求之间的差距,因此算法审计的前提是形成可供审计依循的具体规则;相比之下,算法影响评估的制度价值则在于回应不确定性,即在多方不断对话的持续过程中共同积累治理知识、寻找治理方案。
在明确算法影响评估制度定位的基础上,接下来的问题就在于讨论算法影响评估制度“是什么”,而这又可进一步细分为“应该是什么”和“实际是什么”这两个层面,前者涉及算法影响评估制度建设在理论上需要考虑的关键机制,后者涉及算法影响评估制度在各国的当前实践。