专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
连州点点网  ·  期待您到场领奖!关于召开“2025年连州市春 ... ·  3 天前  
51好读  ›  专栏  ›  新技术法学

马国洋|论“人工智能法”框架体系的多维动态模式

新技术法学  · 公众号  ·  · 2025-01-27 15:48

正文

“人工智能法”框架体系的多维动态模式是顺应人工智能治理发展趋势的产物,其可以有效满足人工智能治理精细化的需求,同时也符合立法的内在要求和抢占话语权的需要。多维动态模式是三个基本维度的有机组合,分别是基于主体进行治理的价值链维度、基于流程进行治理的生命周期维度以及基于不同场景进行治理的场景维度。在组合方式上,多维动态模式要求以人工智能的生命周期为主线,在不同环节为价值链中的不同主体赋予相应的权利和责任方式,并且根据特殊场景在各个环节设置针对性规则。其动态化调整则应基于敏捷治理的原理,通过设立“人工智能法”框架体系的实时监测、多元合作和信息反馈机制加以实现。这种多维动态模式有效结合了人工智能治理的各单一模式,可以弥补单一模式的缺陷,并更好地适应技术发展。
当前,人工智能技术对于人类社会的影响正在不断加深,正如我国《新一代人工智能发展规划》所指出的那样:“人工智能的迅速发展将深刻改变人类社会生活、改变世界。”不可否认的是,人工智能的出现确实带来了便利,ChatGPT、自动驾驶汽车等应用有效地提升了人类生活的质量。但与这种便利相伴的是人工智能引发的算法歧视、隐私侵犯等风险。为了应对这种风险,推动人工智能高质量发展,不少国家、国际组织也开始探索设计具有系统性的人工智能立法。例如,欧盟《人工智能法案》已经正式生效,巴西联邦参议院提交并公布了《巴西人工智能法(草案)》。在我国,这一趋势同样明显。现阶段,“人工智能法”被列入国务院2023年立法工作计划。同时,《人工智能法示范法2.0(专家建议稿)》《人工智能法(学者建议稿)》等专家学者提出的立法建议文本也相继被推出。
“立法活动是一项极为复杂的系统工程,需要善于谋算策划,具有较高的运筹技术”。“人工智能法”的立法工作同样如此,并且作为人工智能领域的统一立法,其科学性、系统性方面的要求和标准 要更高,由此便需要一个有效的框架体系完成对于整个“人工智能法”的构架。所谓“人工智能法”的框架体系,是指将“人工智能法”中的规则串联起来,建构起相关规则的关系,并将各个独立的规则置于统一的体系之中。从当前实践看,虽然全球范围内真正成型的统一人工智能立法数量较为有限,但各个国家、国际组织等主体所提出的人工智能治理方案已经具有整合性、系统性的趋势,而这些实践均可以为“人工智能法”的框架体系设计提供支撑。综合当前各个主体提出的方案,“人工智能法”的框架体系总体上可以分为三种模式。第一种是基于主体进行治理的价值链模式,我国的《人工智能法示范法2.0(专家建议稿)》和《互联网信息服务算法推荐管理规定》主要选择了这种模式;第二种是基于流程进行治理的生命周期模式,美国《人工智能风险管理框架》、我国《新一代人工智能伦理规范》以及经济合作与发展组织(以下简称经合组织)《推进人工智能的可问责原则》主要选择了这种路径;第三种是基于不同场景进行治理的场景模式,欧盟《人工智能法案》和巴西《人工智能法(草案)》往往被认为选择了这种模式。这三种模式各具特色,分别存在难以克服的缺陷。
其中,价值链模式的困境在于,一方面,不同主体之间的关系并不能完全被轻易地理清,主体权利和责任的精准度不足。例如,人工智能的技术开发者和技术提供者有时并非不同的主体,只是在不同环节扮演着不同的角色。在这种情况下,如果使用价值链模式可能导致相关主体逃避或错误排序应该承担的责任。另一方面,价值链模式是一种针对所有人工智能进行治理的方案,其并不能深入到不同场景设计不同的主体要求。由此,其在人工智能具体应用的过程中,可能因为情境的特殊性和动态性而表现出适应性不足。
生命周期模式的缺陷在于,一方面,该模式虽然理清了人工智能治理的各个环节,但并未落实具体权利和责任主体。显然,人工智能无法享有和承担相应的权利和责任,生命周期模式又未给出“穿透人工智能面纱”确定主体权利和责任的方式,这就导致人工智能治理的可操作性有待提升;另一方面,生命周期模式同价值链模式一样,是基于一般人工智能的策略,因此其对于特殊场景的适应性也存在一定程度的不足。
相较于前两种模式,场景模式更加注重将人工智能治理与具体应用场景相结合,这就在很大程度上增加了其对于单一情境下人工智能治理的针对性。当然,这种针对性的增强在一定程度上牺牲了对于人工智能监管的整体性,即场景模式无法满足敏捷性、穿透性治理的需求,其跨场景的治理能力会受到一些限制。由此引发的问题在于,对于某些场景使用的治理策略可能无法移植到其他场景之中。这也就意味着,我国“人工智能法”的制定,无论是采取何种模式,均可能存在一定问题。对此,理论和实践均未给出令人满意的回应。既有研究中,即使有学者尝试进行分析,篇幅也较为有限,且并未从框架体系层面提出有效的解决方案。从具体立法来看,我国人工智能领域的规范在框架体系的问题上表现得也较为混乱,有的并不具有框架体系,有的采取价值链模式,有的采取生命周期 模式,而不同方案之间的优劣也缺乏比较。
有鉴于此,为了对“人工智能法”的制定提供帮助,本文提出了一种“人工智能法”框架体系的多维动态模式,该模式广泛吸收了当前各个模式,将价值链维度、生命周期维度和场景维度作为三个基本维度,并将这些基本维度进行有机组合,同时构建动态机制以实现框架体系的及时更新,由此可以有效解决既有方案的困境。需要特别指出的是,由于本文主要面向单一的人工智能规则展开讨论,故而主要的关注对象是不同国家、国际组织等主体的某一人工智能相关规则、策略或方案。同时,为了保证分析的全面性,本文所分析的对象并不限于人工智能的统一立法,也包括其他规范、建议、指导性文件、白皮书等,特别是基于一定框架体系进行设计的文件。
一、多维动态模式是顺应人工智能治理发展趋势的产物
2016年,AlphaGo的出现掀起了人工智能发展的新一轮高潮。在此次事件之后,各个国家、组织等主体也纷纷提出人工智能的治理方案。总体而言,以2021年为界限,全球范围内关于人工智能的治理策略可以分为两个大的阶段。在2021年以前,各个主体所出台的人工智能治理方案大都较为粗糙,系统化程度明显不足。一方面,很多方案都是从宏观角度在价值和原则层面探讨人工智能的治理问题,而未落实到具体方案,中国《新一代人工智能治理原则——发展负责任的人工智能》就是其中的典型代表;另一方面,各主体关于人工智能治理的措施和规则并未显示出较强的整合意识。例如,美国《2019年算法责任法案》虽然提出了一些关于算法规制的要求,但是并没有特别系统的框架体系。
2021年后,各个主体开始重视对于人工智能治理的系统化,很多方案都提出了明确的人工智能治理、监管或是法律的框架体系,并且基于框架体系的整合性立法开始正式出现。而这种对于框架的使用在最初大多选择的是单一框架,例如2023年经合组织《推进人工智能的可问责原则》明确指出,采取人工智能生命周期模式设计关于人工智能治理的规则框架体系。此后随着人工智能治理方案的逐渐成熟,一些规则也开始尝试将不同的框架进行融合,并以此为基础制定人工智能治理规则。例如,欧盟《人工智能法案》虽然更多被认为是基于场景模式展开的设计,但其同样提及了价值链和生命周期的概念。2023年美国NIST发布的《人工智能风险管理框架》虽然主要是基于生命周期模式而展开,但是同样提出了“必须明确定义和区分决策制定和监督人工智能系统的人员角色和职责”。
值得注意的是,尽管探索不同框架体系融合的人工智能治理规则正在成为一种趋势,但这种尝试并不足够完善,既有方案尚未将当前已有的三种框架有机地融合到一个融洽的体系之中,因此仍然存在不少问题。无论是欧盟《人工智能法案》,还是美国《人工智能风险管理框架》,本质上都是依托某一种模式,而在需要时适当添加了其他模式的概念和方法,这便导致其无法突破单一模式的固有弊端——欧盟《人工智能法案》更多关注不可接受风险和高风险人工智能,对于其他风险较低的人工智能的治理则基本没有太多策略;美国《人工智能风险管理框架》对于主体责任的分配以及针对特殊场景的应对能力均有所不足。
基于上述发展趋势,人工智能治理方案或是人工智能立法的下一步发展方向便呼之欲出——将不同的框架有机融合并以此为基础完成人工智能立法。本文所言之多维动态模式便是在此基础上提出来的。其目标是将当前既有的三种模式作为三个基本维度并通过合理的组合使其各自发挥应有的功能。当然,考虑到人工智能发展的态势,一方面,不同框架的组合可能因为技术的发展或实践环境 的变化而产生不适应进而需要重新加以组合;另一方面,新技术的产生有时可能推动新的基本维度 的形成。因此,本文在对基本维度进行组合的同时,也提出了一种动态化的应对机制,以减轻技术变化而引发的规则不适应性。
多维动态模式的提出至少具有三方面的意义。首先是满足人工智能治理精细化的需求。随着人工智能的日益发展,各方对于人工智能的治理策略也在日益增多。据经合组织人工智能政策观察站统计,截至2021年,60个国家或地区已经发布了700多项国家人工智能治理举措。另据学者统计,从2020年起,国际组织发布的人工智能治理举措数量已经开始超过国家和地区层面,成为人工智能治理举措的主要来源。这些策略之间的关系成了人工智能治理需要关注的问题。从既有实践看,各治理策略之间存在着关系矛盾、混乱等问题。对此,更加精细化地对人工智能进行治理开始被更多地提出,而基于多维动态模式制定系统化的“人工智能法”相较于之前的方案更加具有系统性,其可以有效纠偏人工智能领域治理策略体系性缺失之弊。
其次是满足立法的内在需求。统一的立法要求有效处理规则之间的横向和纵向关系,使规则内部协调统一。特别是对于“人工智能法”而言,在统一立法之前,已经存在大量的人工智能相关规则,“人工智能法”就更加要强调集成性、统一性和系统性。若其不能有效协调既有规则之间的关系,那么反而可能进一步增加该领域规则之间的混乱性。而多维动态模式可以在很大程度上起到统摄整个人工智能立法的作用,将既有的规则按照一定逻辑进行整合,从而增加规则的系统性。从之前的经验不难发现,相较于粗放的立法模式,欧盟《人工智能法案》具有明确的整合性特征,其尽可能地包容了各个场景,并将不同场景置于统一的框架体系下进行串联,而非只对单一场景设计规则但不与其他场景规则进行呼应。显然,这种立法方式更加符合立法系统性、整体性的要求。如前文所述,多维动态模式相较于欧盟《人工智能法案》的框架更加系统,因此也就更符合立法的需要。
最后是满足抢占世界人工智能发展话语权的需求。当今世界竞争与合作并存,很多国家都在大力发展人工智能,以获取相关技术领域的话语权,数字博弈的局面正在逐渐形成。人工智能的话语权问题可以分为两个方面,一是人工智能技术本身的话语权,二是人工智能治理的话语权。后者便成为各个主体不断优化人工智能治理方案乃至颁布“人工智能法”的重要动力来源。例如,欧盟在全球范围内率先制定了第一部《人工智能法案》,具有抢占人工智能话语权的目标——欧盟内部市场委员蒂埃里·布雷东指出:“欧盟成为第一个为人工智能使用设立明确规则的地区。《人工智能法案》不仅是一本规则手册,也将成为欧盟初创企业和研究人员引领全球人工智能竞赛的助推器。”与之相似,我国率先制定生成式人工智能的治理规范以及出台关于人工智能的立法规划,同样蕴含着“抢占人工智能领域国际规则制定权与国际话语权”的意蕴。从方法上看,这种话语权的抢占一是在于速度,二是在于质量。就前者而言,第一部“人工智能法”无疑是一个很好的噱头。但若是仅有速度,相关规则内容平平、体系性差,对于全球人工智能治理帮助不足,恐怕其所能产生的效能也会较为有限。
例如,2017年俄罗斯的《机器人与人工智能示范公约》虽然被称为“世界上第一部调整机器人、人工智能和物理网络系统的国际文件草案”,但其产生的国际影响力却并不大。从这个意义上讲,能够有效提升人工智能治理方案系统性的框架体系,无疑有助于提升“人工智能法”的质量,也就更有利于抢占话语权。多维动态模式是在进一步吸取当前框架体系的经验和教训基础上所提出的方案,具有更高的成熟度,也就更有利于提升我国在该领域的话语权。
二、多维动态模式的基本维度
从当前各方提出的关于人工智能规则的框架体系来看,总体上可以分为价值链模式、生命周期模式和场景模式三种基本模式。多维动态模式是对上述模式的有机组合,并将这三种模式作为最基础的三个维度——价值链维度、生命周期维度和场景维度。为了更好地展开分析,本文将结合当前全球范围内的人工智能规则就不同维度的内涵进行阐释。

(一)
价值链维度

“价值链”最初是一个经济学领域的概念。1985年波特首先提出了价值链模型,其主要是指厂商为生产最终交易的产品或服务所经历的增加价值的活动过程。此后,在服务科学、管理、工程和设计等领域,价值链的概念得到了应用或发展。在人工智能治理问题上,该概念也同样有所应用。具体而言,价值链模式的治理对象是人工智能运转过程中的各个主体,其治理方式是为人工智能价值链中的各个主体分别设计责任和权利。欧洲政策研究中心对价值链的定义是:“开发人工智能系统并投入使用的主体过程。其功能是考虑哪些主体可以在人工智能价值链的哪些部分发挥作用,以确定哪个主体最符合监管要求,保障人工智能系统的安全性。”在具体的方案设计中,欧盟的《人工智能法案》明确提出“价值链”一词,并为部分场景中价值链中的主体赋予了责任。而我国的不少治理策略虽然未明确提出价值链的概念,但整体治理思路是依托于价值链而进行的。如前文所述,我国的《人工智能法示范法2.0(专家建议稿)》和《互联网信息服务算法推荐管理规定》均使用了这种方案。
价值链维度的展开主要围绕技术开发者、技术提供者、技术应用者和受技术影响者。其中,技术开发者是指人工智能技术的开发主体,即为人工智能提供技术支持的主体,其主要责任包括:(1)合理合法设计责任。技术开发者应确保人工智能系统满足使用的要求,同时应保证人工智能符合公正、可靠、安全、稳定等人工智能伦理规范。合理合法设计责任在很多人工智能治理方案中都有所提及,例如,欧盟《人工智能法案》要求开发人工智能的主体应建立质量管理体系,并防范高风险人工智能系统对人类造成伤害、存在歧视等问题。《人工智能法示范法2.0(专家建议稿)》提出要建立质量管理体系,制定基础模型的使用规则,明确使用基础模型的研发者应当履行的义务。(2)风险评估和测试责任。技术开发者应通过设计风险评估体系、风险测试机制等方式,在人工智能投入应用前进行风险测试,以避免应用过程中产生的各种风险。对此责任,欧盟《人工智能法案》要求开发人工智能的主体应就高风险人工智能进行符合性评估;美国《人工智能风险管理框架》要求在人工智能开发过程中进行严格的软件测试与性能评估。(3)数据正确应用和处理责任。技术开发者在进行数据使用、数据标注等工作时,要符合数据应用的规范,遵循比例原则、合理使用原则等原则,采取数据脱敏等方法,保 证数据的使用符合合法性、效率性等要求。就数据正确应用和处理责任进行规定的代表性规则是2022年中国《互联网信息服务深度合成管理规定》:“技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。”该规则之外,欧盟《人工智能法案》、2023年多个国家签署并公布的《安全人工智能系统开发指南》等规范中也提出了相应的要求。(4)就人工智能应用进行记录、备案和解释。技术开发者应就人工智能技术的相关信息进行必要的记录和备案,同时也应对技术的运行原理提供相应的解释,以此提高人工智能的可追踪性、可控性和可解释性。《安全人工智能系统开发指南》、欧盟《人工智能法案》、2023年美国《安全、稳定、可信的人工智能行政令》均提出了明确的记录或解释要求。
技术提供者是指提供人工智能相关服务的主体,其往往是很多人工智能治理方案的重要规制对象。技术提供者的主要责任包括:(1)监管审查责任。人工智能的技术提供者需要对投入市场使用的人工智能进行合法性、合伦理性等方面内容的审查,以避免投入使用的人工智能存在风险。对于该项责任,我国《生成式人工智能服务管理暂行办法》第7条对于生成式人工智能服务提供者的相关规定较为具有代表性。除该规定外,我国《人工智能法(学者建议稿)》《人工智能法示范法2.0(专家建议稿)》以及2023年英国《人工智能监管法(草案)》也都提及了类似义务。(2)风险测试、评估、追踪责任。与人工智能技术开发者的责任相似,人工智能技术提供者同样需要对人工智能的应用风险进行评估和测试。技术提供者需要在人工智能投入使用后,对人工智能的应用状况进行追踪,以及时查明在开发和测试阶段未暴露的风险。2023年巴西《人工智能法(草案)》、欧盟《人工智能法案》以及我国《人工智能法(学者建议稿)》均设置了相关义务。(3)备案、公开责任。人工智能技术提供者需要就人工智能的相关信息进行备案和公开,特别是涉及人工智能可靠性、合法性等内容的信息。此外,技术提供者还需要就人工智能的可解释性问题进行说明。很多规则都明确了上述义务,例如我国《互联网信息服务算法推荐管理规定》、欧盟《人工智能法案》等。(4)补救责任。在人工智能应用造成损害时,人工智能技术提供者需要及时就相关问题进行补救,以避免损失扩大,最大限度地保护有关人员的权利。我国《人工智能法示范法2.0(专家建议稿)》提及技术提供者应在人工智能造成损害时提供相应的补救措施。此外,英国2023年《促进创新的人工智能监管方法》和《人工智能监管法(草案)》均提及补救措施的重要性。
技术应用者是指使用人工智能技术的主体,例如运用人工智能大语言模型生成文字或图片、操作自动驾驶汽车的主体。一般而言,技术应用者的责任主要包括两方面内容。一方面是按照要求使用人工智能的责任。人工智能技术的应用者应该按照有关规范、说明书、协议使用技术。考虑到人工智能技术的复杂性,若应用者未按照要求使用人工智能技术,可能会引发违法犯罪行为。利用深度伪造技术制作色情图片、视频就是典型的例子。因此,一些规则会就人工智能技术的应用者作出相应限制。例如,欧盟《人工智能法案》要求高风险人工智能系统的使用者应根据系统随附的说明书使用这些系统。我国《互联网信息服务深度合成管理规定》要求“应用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息”。另一方面是配合人工智能治理的责任。一些规则要求人工智能技术的应用者配合人工智能的治理工作,这主要是考虑到部分关于人工智能的信息只受到技术应用者的控制。例如,欧盟《人工智能法案》要求技术应用者保留由高风险人工智能系统自动生成的日志。
受技术影响者主要指因人工智能技术的使用而遭受权利损害的主体。不少人工智能治理策略都注意到了人工智能技术的应用可能会损害受技术影响者的利益,因此也会采取相应的措施对权利予 以保障。这些权利通常包括:(1)知情权。知情权是指受技术影响者有权知悉人工智能应用的各种情 况,包括决策方式、治理方式、潜在风险等。很多文件都强调知情权在人工智能应用中的重要性,我国《互联网信息服务算法推荐管理规定》和菲律宾2023年的《人工智能监管法》(众议院第7913号法案,以下简称《第7913号法案》)就是其中典型代表。(2)反对权或人工干预权。反对权或人工干预权是指受技术影响者可以在任何阶段决定是否干预或退出基于人工智能的决策。对于该项权利较为有代表性的规定是欧盟《通用数据保护条例》第22条:“数据主体有权不受仅基于自动化决策所做决定的影响,包括那些会对他们产生法律效力或类似重大影响的特征分析。”(3)质询权。质询权与反对权有一定相似性,其是指受技术影响者可以对人工智能的应用提出质疑。巴西《人工智能法(草案)》确认了受技术影响者享有该权利。(4)解释权。解释权是指受技术影响者有权获得关于人工智能决策产生原因的解释,这是关于人工智能公开性的要求。巴西《人工智能法(草案)》对此项权利作了较为明确的规定:“(受人工智能系统影响的人)有权要求在收到请求后15天内对人工智能系统做出的决定、建议或预测作出解释。”(5)平等权。平等权是指公民平等地享有权利,不受任何差别对待,要求国家给予同等保护的权利。对于平等权的强调主要考虑到人工智能存在算法歧视的风险,即依据算法所作自动决策实施的直接或间接歧视性行为。很多人工智能治理策略都关注该问题,或是从正面赋予受技术影响者平等权,例如巴西《人工智能法(草案)》;或是从反面否定算法歧视行为,例如2022年美国《停止算法歧视法案》。(6)隐私权。隐私权是指公民享有的私人生活安宁与私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开等的权利。因为新一代人工智能是以大数据为基础,在使用海量数据的过程中难免会存在侵犯隐私权的问题。因此,赋予受技术影响者以隐私权也就成为一些人工智能治理策略的关注重点。例如,2022年美国《人工智能权利法案蓝图》将保护数据隐私作为五项基本原则之一,菲律宾《第7913号法案》也强调了隐私权的重要性。

(二)
生命周期维度

生命周期最初是一个生物学概念,其是指生命体生命毕生发展贯穿一生的连续过程,是生命体的成长方式。后来有学者开始将该概念应用于经济学、管理学、政治学等各个领域,比较有代表性的如组织生命周期、产品生命周期、技术生命周期等。近年来,在人工智能治理问题上,生命周期的概念也开始频繁出现,例如美国《人工智能风险管理框架》、欧盟《人工智能法案》、我国《新一代人工智能伦理规范》、经合组织《推进人工智能的可问责原则》等都提及了该词汇。虽然最后定稿的欧盟《人工智能法案》并未提及人工智能生命周期的定义,但是在之前的版本中,其明确指出人工智能生命周期是指“从设计到退役的人工智能系统的持续时间”。多维动态模式的生命周期维度指向了从人工智能设计到退役的全流程治理,即为人工智能生命周期的各个环节设计特定的要求。总结当前各个文件及相关理论,该维度应主要围绕以下几个环节展开:
1.人工智能规划和设计




规划和设计阶段的主要工作是对于人工智能系统的目标、具体任务构成、具体假设、运行环境、参与人员、流程设计、合法性等问题进行明确。从治理角度上讲,该环节的主要要求包括:首先,根据人工智能开发、运营等工作的参与人员状况以及相关能力,确立人工智能的设计计划和架构;其次,明确人工智能的具体要求,包括避免歧视、保证隐私、具有可解释性、保证安全、反对有害人工智能系 统等; 最后,广泛吸收各方意见,进一步明确人工智能应用设计的价值导向。 对于上述要求规定较为详细的是经合组织《推进人工智能的可问责原则》,其基于不同的价值追求设计了相应的治理办法。 此外,美国《人工智能风险管理框架》也指出,该阶段应“创建人工智能系统的概念和目标,并负责规划、设计、数据收集和任务处理,以便人工智能系统合乎法律和符合目的”。
2.数据选择与处理




数据选用问题关乎人工智能分析的准确性,同时涉及算法歧视与隐私侵犯等风险。在明确了人工智能的相关目标后,应该进行针对性的数据选择和处理。具体内容包括数据采集、数据探索、数据选用、数据清洗、数据标注、数据完整性检验、数据质量检验、数据信息记录等。从治理角度看,该阶段的主要要求包括:首先,数据应用的各个环节严格遵循法律的规定,避免因数据选用问题引发算法歧视、隐私侵犯等问题,必要时也应该通过数据匿名化处理、增加噪声、合并数据集等方式规避侵权问题。其次,努力提升数据集中数据的质量,包括完整性、及时性、一致性、规范性和准确性等。最后,在相关文件中记录各类数据,保证各类信息具有可追踪性。对于数据选择和处理环节治理的问题,我国《新一代人工智能伦理规范》明确:“在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。”而经合组织《推进人工智能的可问责原则》和新加坡《人工智能模型治理框架》的具体要求则更为细致。
3.算法设计与模型建立




该阶段主要是通过合适的人工智能算法来开发人工智能模型,该算法代表了与人工智能应用相对应的人工智能能力。该阶段的主要工作为算法和模型的选择与校准、制定评估基准、模型的训练与测试、模型的可解释性评估等。通常来说,此阶段的主要要求包括:首先,根据人工智能的相关目标,选择适当的模型和代码;其次,运用适当的方法提升人工智能的合法性和安全性,例如联合学习、差分隐私、消除差异性影响等;再次,通过适当方法提升人工智能的可解释性,例如使用可解释算法;最后,引入有关技术应用者、专家和利益相关者参与算法设计和模型构建。对于上述治理方法规定较为详细的是经合组织《推进人工智能的可问责原则》和新加坡《人工智能模型治理框架》,其基本覆盖了算法设计与模型建立阶段所有的治理环节。此外,我国《新一代人工智能伦理规范》也从增强透明性和反对算法歧视的角度切入,对该环节予以规制。
4.技术审查与检验




在人工智能投入使用前,应对相关技术进行审查,以避免可能的各种风险。该阶段的主要要求包括:首先,根据人工智能的设计目标和运行环境,制定相应的评价标准,并对人工智能系统进行针对性的自评估;其次,引入第三方主体对人工智能进行评估,以提升技术检验的中立性和可靠性;最后,就人工智能的状况提出相应的整改意见。人工智能的技术审查与检验是很多人工智能治理方案的重要环节,例如,美国《2022年算法责任法案》、2019年加拿大《自动化决策指令》都具有技术评估的要求。而欧盟《人工智能法案》指出:“高风险人工智能系统的测试应在开发过程的任何适当时间进行,并且在投放市场或投入使用之前进行。测试应根据初步确定的指标和与高风险人工智能系统的预期目的相适应的概率阈值进行。”经合组织《推进人工智能的可问责原则》则是设计了更为详细的措施。
5.技术部署与使用




技术部署与使用是将人工智能投入市场中应用的阶段。该阶段需要确保人工智能在市场环境下健康运转。一般而言,该阶段的主要要求包括:首先,按照规则部署人工智能,就人工智能进行实时监 测,探索人工智能是否存在算法歧视、隐私侵犯等问题; 其次,记录人工智能的应用状况,与目标进行 对比,并及时反馈; 再次,明确告知相关群体人工智能应用的相关信息以及相关权利; 最后,完善申诉机制,明确关于人工智能引发问题的应对措施和补偿措施。 对于该环节规定较为具体的是我国《新一代人工智能伦理规范》。 除此之外,欧盟《人工智能法案》、经合组织《推进人工智能的可问责原则》、新加坡《人工智能模型治理框架》也都有相关规定。

(三)
场景维度

场景一词源于艺术领域,后来逐渐被社会学研究吸纳。最早关于场景的研究始于20世纪50年代美国芝加哥大学社会理论学者欧文·戈夫曼的“拟剧理论”。此后,场景理论不断发展,随着大数据时代的到来,斯考伯和伊斯雷尔更是预言,人类将进入场景时代。在人工智能治理问题上,基于场景的治理也逐渐被不少主体所采用。所谓场景治理,是指以情境为导向考察人工智能应用的风险水平,相应制定与风险程度相一致的规制策略和规则,亦即“贴合现实的法律应对”。而多维动态模式中的场景维度也就指向了不同场景的关照。这种关照主要是将不同场景归入不同的风险级别之中,进而对特殊风险的场景设置更加具体化的治理策略。具体而言,结合欧盟《人工智能法案》和《巴西人工智能法(草案)》《人工智能法(学者建议稿)》这种整合性较强的治理策略以及其他人工智能单一场景的针对性策略,我国的规范典例包括:关于自动驾驶场景的2018年《肇庆市自动驾驶车辆道路测试管理实施细则(试行)》、2020年《智能汽车创新发展战略》;关于人脸识别场景的2023年《人脸识别技术应用安全管理规定(试行)(征求意见稿)》;关于生成式人工智能场景的《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》;关于司法场景的2022年《最高人民法院关于规范和加强人工智能司法应用的意见》等。场景维度主要应划分为四种不同类型:(1)不可接受风险。对于人类基本权利造成较大威胁的人工智能系统被要求禁止使用,这包括操纵人类意志的系统、利用特定自然人群体缺陷的系统、公权力机关社会评分系统、公共场所生物识别系统等。(2)高风险。高风险人工智能是对人类权利有一定影响的人工智能,其包括生物特征识别系统、关键基础设施管理和运营系统、教育培训系统、就业机会系统、社会福利系统、立法司法和执法系统等。这类高风险人工智能系统应受到严格的规制,除一般要求外,还应根据场景设置一些特殊的要求,如进行特殊的设计和规划、成立专门的数据审查机制和风险审查部门等。(3)有限风险(特殊透明度风险)。有限风险是使用人工智能时,应用者能意识到与机器互动,进而作出明智的决定时所产生的风险。这类人工智能系统被赋予的特殊要求并不多,只需要保持透明度并提供相应信息。例如,欧盟《人工智能法案》要求情感识别系统的用户应告知受该系统操作影响的自然人。(4)最小风险。大部分人工智能系统都属于最小风险系统,其并不会对公民权利造成伤害,例如允许自由使用人工智能的电子游戏或垃圾邮件过滤器等应用。而这类人工智能系统的开发和使用通常不被予以太多特殊要求,只需满足最基本的要求即可。
三、多维动态模式的运作机制
前文讨论的多维动态模式的基本维度从静态的角度上揭示了该框架体系的核心组成要素。然而,若要真正实现其在人工智能立法领域中的潜力和价值,不仅需要深入理解这些基本维度,还需要进一步探讨如何将它们有机地结合起来,并确保它们能够高效、顺畅地运转。这意味着需要在各个维度之间建立有效的联系、互动机制以及相应更新机制,使得整个框架能够在实际应用中发挥最大的效能。通过这种有机结合和及时更新,多维动态模式才能在人工智能立法中发挥其应有的作用,为相关法律的制定和实施提供有力的支持和指导。

(一)
多维动态模式的组成机制

多维动态模式的实现,需要对不同基本维度进行有效的组合,这首先需要明确应将哪个维度作为主线。其中,以场景维度作为主线并不能有效规避场景模式的风险,即对某一场景的治理方式难以移植到其他场景。而以价值链维度作为主线或是以生命周期维度作为主线实际上效果较为相似,前者的表述方式是A主体在O、P、Q等环节需要负有何种责任或享有何种权利。而后者则表述为在O环节中,A、B、C各主体分别需要履行哪些责任或享有哪些权利。考虑到相较于生命周期的各环节,价值链中主体变化的可能性要更高且关系更加复杂,本文选择以相对较为稳定的生命周期维度作为多维动态模式的主线。基于此,该模式的构成可以采取“两步走”策略。
第一步,为人工智能生命周期的每一环节设计具体的主体权利和责任,由此实现生命周期维度与价值链维度的有机融合。具体而言,人工智能的生命周期仍然可以分为五个环节。
第一个环节,人工智能规划和设计。该环节具体任务分配如下:一是技术提供者应组织技术开发者、技术应用者和受技术影响者召开会议,就人工智能开发、运用计划进行讨论和说明。二是技术提供者应广泛调研,根据现有的技术能力和人员组成状况,在参考各方意见的基础上,确定人工智能的具体应用目标和应用范围。三是技术提供者应联合技术开发者、技术应用者和受技术影响者共同确定人工智能开发的基本要求,这包括保护人权、透明度和解释性、公平性、问责制、监管、安全性、适当的人类监督、伦理、偏见缓解、隐私和数据保护等《布莱切利宣言》等规则中提出的人工智能各项伦理。
第二个环节,数据选择与处理。该环节具体任务分配如下:一是技术开发者在获取数据时应确保数据符合法律要求,不含有侵犯平等权、知识产权等内容的数据。在使用关于个人信息的数据时,应当征得相关主体同意。在使用数据时应以必要为限,同时应采用适当的技术和方法避免产生权利侵犯问题。二是技术开发者应努力提升数据来源以及数据标注的质量。三是技术开发者应对数据的来源和使用进行全面记录,并保证可以随时提供数据来源、选择和标注方式等相关信息。四是技术提供者若掌握相关数据,应及时提供给技术开发者,但要保证相关数据符合规范。
第三个环节,算法设计与模型建立。该环节具体任务分配如下:一是技术开发者应根据第一环节商讨的目标选择适当的模型和代码。二是技术开发者应运用适当的方法提升算法的合法性和安全性。三是技术开发者应努力提升相关算法的可解释性。四是技术开发者应对算法设计和模型建立情况进行记录和备案,并及时公开相关信息。五是技术提供者应召集有关专家、技术应用者和受技术影响者参与算法设计和模型构建,配合技术开发者提升算法质量。六是技术开发者应向技术提供者、技术应用者、受技术影响者和专家说明算法和模型开发的相关问题,以便其更好地参与算法与模型建设。
第四个环节,技术审查与检验。该环节具体任务分配如下:一是技术开发者应根据人工智能的相关情况设计具体的风险评估体系,并进行风险评估和应用测试,保证人工智能符合要求。二是技术提供者应邀请第三方主体就人工智能风险进行中立评估。三是技术提供者应邀请第三方评估主体、技术应用者和受技术影响者对人工智能提出优化建议,技术开发者应按照建议进行优化。四是技术提供者应在人工智能投入市场前进行最后审查,确保相关技术符合规范。
第五个环节,技术部署与使用。该环节具体任务分配如下:一是技术提供者应对人工智能进行备案,并提前公布技术相关信息,如合法性、可解释性等问题。二是技术提供者应按照规则部署人工智能,并就人工智能进行实时监测。三是技术提供者应对人工智能应用的状况进行记录并及时反馈给技术开发者,技术开发者应及时优化相关内容。四是技术应用者应根据要求合理使用人工智能,不得将其用于错误用途。必要时也应配合人工智能治理工作。五是技术提供者应建立申诉机制,明确人工智能可能引发的问题以及相关的补救方式。六是受技术影响者应享有知情权、反对权或人工干预权、质询权、解释权、平等权以及隐私权。
第二步,基于人工智能在不同风险类型场景的应用情况,分析各个生命周期环节需要设计的特殊措施,并单独予以说明。该步骤可以将场景维度融入法律框架体系之中,从而实现多维动态模式三个维度的有机统一。具体而言,对于不可接受风险的人工智能应直接予以禁止使用;对于有限风险的人工智能,除了需要满足上述要求外,还需要在生命周期的各个环节保持人工智能相关信息的透明度;对于最小风险的人工智能,只需要遵守一般的要求即可;而对于高风险人工智能,则需要提出更为严苛的要求。其中,在第一个环节人工智能规划和设计中,技术提供者应联合技术开发者、技术应用者和受技术影响者分析高风险人工智能场景是否会衍生特殊要求。例如,人工智能辅助立法工具的开发和应用应关注无法使用智能化设备的人群,以保证人工智能应用的公正性。
在第二个环节数据选择与处理中,技术开发者和技术提供者应使用可靠的数据信息,并建立数据的应用和审查机制,确保数据的使用符合法律的规定。《人工智能法(学者建议稿)》所提出的关键人工智能应建立数据标注规则和审核机制就是对高风险人工智能提出的特殊要求。
在第三个环节算法设计与模型建立中,一方面,技术开发者应在模型开发前便进行风险评估,并成立相应的监管部门,用以检测模型开发过程中的各种风险。若技术开发者是根据已有模型进一步开发的新模型,则其需要对基础模型负有审查义务,保障无论是基础模型还是新开发的模型都符合要求。另一方面,技术开发者在开发相关模型时,还应符合高风险场景的伦理要求。例如,对于医药卫生行业模型的开发,除了需要符合人工智能伦理外,还要符合医疗伦理。再如,对于自动驾驶汽车模型的开发,需要兼顾道路交通安全的要求。
在第四个环节技术审查与检验中,技术开发者和技术提供者需要组织独立的风险防控部门用以负责高风险人工智能的风险审查,并对结果加以披露。此外,无论是技术开发者还是技术提供者,在对人工智能进行审查时,都需要根据场景进一步考虑高风险场景是否有特殊的要求。例如,结合自动驾驶汽车的特点,对于该应用的审查与检验就包括道路测试和示范应用。那么在该场景之下,应对技术审查作出针对性部署。
在第五个环节技术部署与使用中,技术提供者需要对人工智能的可解释性作出更加详尽的说明。例如,当人工智能应用于司法裁判时,必须保障人工智能所作出的判断是人类可理解的,否则就会引发机器裁判的伦理风险,同时可能对司法公信力造成损伤。此外,技术应用者在需要时,也具有告知和监管责任。同样以人工智能应用于司法裁判为例,为了更好地保障权利,法官需要对人工智能的使用进行全程监管,以避免因人工智能错误应用导致的风险。同时,法官也负有告知有关人员人工智能风险的责任。而为了保证该责任的有效落实,技术开发者和技术提供者应在必要时对技术 应用者提供应用方式的指导。

(二)
多维动态模式的动态机制

随着人工智能的不断发展,其已经开始超越单纯的技术工具角色而发挥社会新型基础设施和人工智能产业底座效应,由此引发的风险也愈发呈现出不确定性和变化性。故而便需要不断根据技术变化调整相应的治理策略。事实上,针对人工智能提出的敏捷治理理论,便意在强调根据人工智能的变化而动态调整治理方案,即构建“一套具有柔韧性、流动性、灵活性或适应性的行动或方法,一种自适应、以人为本以及具有包容性和可持续的决策过程”。在具体要求上,敏捷治理在强调不同主体广泛参与的同时,更加注重工具的快速反应和适应性演化,以及政府作为权威主体在其中扮演的主导性角色。同样地,人工智能规则的框架体系也应符合上述要求。例如,美国《人工智能风险管理框架》便指出:“该框架和支持资源将根据不断发展的技术、全球标准格局以及人工智能社区的经验和反馈进行更新、扩展和改进……随着人工智能风险管理框架的投入使用,将吸取更多经验教训,为未来的更新和更多资源提供信息。”
多维动态模式吸纳了上述理论与实践经验,同样强调对于框架体系的动态调整。为了保证动态机制的有效性,应成立一个人工智能委员会专门就“人工智能法”的框架体系进行监测和分析等工作,并适时对法律调整提出相应建议。从当前实践看,该方式已经被不少主体采纳。例如,欧盟《人工智能法案》专门提出要成立人工智能委员会和独立专家科学小组。美国于2016年5月成立“人工智能和机器学习委员会”,负责协调全美各界在人工智能领域的行动,探讨制定人工智能相关政策和法律。国际标准化组织于2017年成立人工智能委员会,致力于制定涵盖算法偏见、隐私保护等领域的标准。而我国也成立了国家新一代人工智能治理专业委员会,并就人工智能治理问题设计相应的规范。此外,《人工智能法示范法2.0(专家建议稿)》指出应由国家人工智能主管机关履行人工智能监管职责。在具体方式上,可以由政府部门牵头,在广泛吸纳各方专家和利益主体的基础上,成立人工智能委员会。这样可以更好地保证相关工作的权威性和科学性,也契合了敏捷治理的要求。对于“人工智能法”框架体系的动态化调整,该委员会应主要做好以下几项工作:






请到「今天看啥」查看全文