主要观点总结
本文介绍了中国人工智能立法的重要性和必要性,以及四位专家的观点和建议。申卫星、张凌寒、周辉和苏宇从多个角度探讨了人工智能立法的问题,包括技术现状、立法现状、国际形势、面临问题及建议方案。文章还讨论了人工智能立法在中国的发展前景、定位、形式和价值,以及未来的立法方向。专家们认为,人工智能立法需考虑技术迭代和应用的多样性,建立多层级分支式治理框架,确保法律治理的准确性和比例性。
关键观点总结
关键观点1: 人工智能立法的重要性和必要性
随着人工智能的快速发展,其立法成为关键议题。中国人工智能立法已纳入立法规划,旨在构建满足中国安全治理和产业发展需求的法律。
关键观点2: 四位专家的观点和建议
申卫星、张凌寒、周辉和苏宇从多方面探讨了人工智能立法,包括技术现状、立法现状、国际形势和面临问题,提出了建议方案。
关键观点3: 人工智能立法在中国的发展前景
专家们认为,中国人工智能立法需考虑技术迭代和应用的多样性,建立多层级分支式治理框架,确保法律治理的准确性和比例性。
关键观点4: 未来的立法方向
专家们建议,中国应加快人工智能立法工作,形成符合中国国情和世界发展潮流的人工智能法律制度体系。
正文
本文转载自:
发表于《探索与争鸣》杂志2024年第10期
随着人工智能的快速发展,其立法成为关键议题。本文集合了申卫星、张凌寒、周辉、苏宇四位专家的意见,从技术现况、立法现况、国际形式、面临问题及建议方案展开多方面探讨。
目录
1 申卫星——
面向未来的中国人工智能立法:思路与重点
1.1 我国人工智能立法的可行性
1.2 我国人工智能立法的定位与方向
1.3 我国人工智能立法的重点问题
2 张凌寒——
中国人工智能立法需凝聚 “总则式”立法共识
2.1 中国《人工智能法》的定位
2.2 中国人工智能立法的“总则式”进路
3 周辉——
中国人工智能立法:示范与定位
3.1《人工智能示范法(专家建议稿)》的起草逻辑
3.2《人工智能法》的三重定位
4 苏宇——
人工智能的多层分支式治理框架
4.1 人工智能的“四层二分”框架
4.2 各层分支的治理需求与制度设计
4.3 人工智能多层分支式治理的法治价值
摘要:人工智能治理正逐步从软法治理向硬法治理迈进,我国人工智能立法也已经被明确纳入立法规划,构建一部满足中国人工智能安全治理和产业发展需求,同时符合国际关于人工智能治理共识的法律,是我们现阶段的目标。现阶段,人工智能法的出场有其必要性,主要体现在三个层面:一是护航人工智能规范健康发展。人工智能全领域应用,带来的信任风险、公平风险、失控风险、社会风险、责任风险等,都需要通过制定法律制度来化解。二是保障人工智能产业创新发展。随着生成式人工智能、判别式人工智能的技术成熟和应用落地及推广,人工智能技术和产业发展中存在的制度障碍已经越来越多,需要我们通过法律制度保障人工智能产业发展。三是助力中国作为负责任的大国参与人工智能国际治理。当下,欧美等西方国家纷纷加快布局人工智能立法,通过人工智能先行立法构建其话语体系,这限制了我国人工智能技术研发的国际合作空间,也必将对我国人工智能产品的国际市场产生巨大影响。面对这一发展趋势,我国要应势而为,积极推动人工智能立法,构筑参与人工智能全球治理的前提和基础。第一,人工智能产业的全面发展提供了立法的社会基础。当下,以 Bert、GPT 等大规模预训练模型为基础的算法性能不断提升,人工智能内容生成(AIGC)技术在社交媒体、广播电视等领域得到广泛应用;单点算力持续提升,算力定制化、多元化成为重要发展趋势,人工智能可以在更多的终端产品中部署并为自动驾驶、远程医疗等新技术的普及提供了便利。此外,以深度学习为代表的人工智能技术普遍使用大量的标注数据而塑造了智能认知,精准营销、自动化决策技术开始在电子商务、互联网金融、公共行政等领域得到广泛应用。欧盟《人工智能法案》已经设定了构建人工智能监管沙盒的规范和标准。2023年11月,西班牙率先在欧盟内建立了首个监管沙盒。紧随其后,在2024年中关村论坛上,中国发布了国内首个人工智能领域的监管沙盒,首批入选的企业包括中科闻歌、拓尔思和灵犀云等。随着人工智能技术不断发展,近年来相关工程落地应用呈现加速态势。第二,中央和地方发布的一批人工智能法规、规章形成了立法的工作基础。中央和地方近年来围绕人工智能综合立法、特定技术方向立法、特定行业立法形成了一批部门规章、司法解释、地方法规,为国家立法机关开展人工智能立法积累了工作经验。在人工智能综合立法方面,2022年《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》先后颁布,以促进发展为主兼顾安全治理的立法思路做出了地方探索。在特定技术方向立法方面,中央网信办 2021年12月发布的《互联网信息服务算法推荐管理规定》,对算法技术治理进行了深入探索,并对高风险算法采取备案检查。2022年11月发布的《互联网信息服务深度合成管理规定》对利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的人工智能技术治理做出探索,并前瞻性地为 ChatGPT 等生成式人工智能技术的颠覆性应用提供了安全保障规则。《生成式人工智能服务管理暂行办法》于2023年8月开始施行,中国由此成为首个为生成式大模型专门立法的国家。此外,最高人民法院针对人脸识别技术发布的相关规定,为人脸识别技术的规制提供了法律依据。在特定行业立法方面,交通部、自然资源部等部门围绕自动驾驶等领域的保障性立法,为人工智能的健康发展提供了法治保障。这些工作为未来的人工智能立法奠定了扎实的基础。第三,国际组织和欧美国家的人工智能立法提供了国际经验参照。国际组织和欧美国家已经分别组成了人工智能立法工作组,并发布了系列人工智能法律(含草案)、法律预备文件。欧盟在2022年9月通过《人工智能责任指令》并确定了针对人工智能系统所致损害的适用规则。欧盟2024年通过的《人工智能法案》提出一种基于风险分级的监管方法。美国在2022年10月发布《人工智能权利法案》,旨在帮助指导自动化系统的设计、使用和部署,从而保护人工智能时代的公民权利。世界经合组织在2019年5月通过了《关于人工智能的建 议》,世界卫生组织在2021年6月通过了《人工智能伦理与治理指南》,联合国教科文组织在2021年11月通过了《人工智能伦理问题建议书》。以上文件同时配套有支撑性的研究报告和立法方向说明,可以为我国的人工智能立法提供参照。在我国人工智能立法工作中,确定立法的重点难点问题及明确其解决思路至关重要。第一,人工智能立法的定位应当在促进法和规制法之间找到恰当的平衡点。人工智能立法颇受关注,其中一个核心问题在于该法的定位是加强管制还是促进发展,这一定位备受社会各界关注。如果一部法律仅仅是促进法,则形同产业政策,法律的味道不浓,立法的价值难以彰显。如果立法高估人工智能的风险而设置过重的义务,可能会影响我国人工智能的快速发展,贻误在日益激烈的国际竞争中的发展契机,这也是人工智能产业界对立法最为担忧的一点。所以,未来人工智能法的立场及定位,是宏观层面要回答的首要问题。对此,笔者认为,安全与发展并不是对立关系,不发展是最大的不安全。同时,带有风险的技术创新要在安全的前提下才具有可持续性。国内外的人工智能立法和实践前沿也表明,在人工智能立法中确定安全保障措施有利于提升应用部门和消费者对于人工智能产品的信任度,一味放纵只会导致我们的人工智能产品被污名化,最终会使技术被安全要求所扼杀。人工智能产业的调研表明,技术的应用落地需要人工智能产业促进措施,需要在立法中解决制度约束问题,为科技政策提供法律支撑。第二,人工智能立法的形式应综合考虑统一立法和分开立法的体系完整性。对于人工智能立法的形式,我国需要考虑的是制定一部综合的法律还是分领域分行业分场景单行立法?笔者对此的回答是,人工智能立法应综合考虑统一立法和分开立法的体系完整性。具体操作就是以综合为主,以单行法为补充和配套。其中的综合立法是指由全国人大常委会制定以人工智能为主题的综合性法律,为人工智能技术发展的基本原则、一般规则、管理体制、运行机制、促进发展的综合措施、法律责任等进行统一立法。此外,这样一部综合性法律难以解决所有问题,还需要根据人工智能不同应用场景和生命周期分别进行配套法规的起草,如对自动驾驶、精准医疗、政府使用人工智能决策等场景分别开展立法。这种宏观和微观视角的协调,可以满足阶段性立法和不断完善的需求,从而适应人工智能技术的不断迭代进化的特点。考虑到人工智能技术的广泛适用性和重要性,综合立法显得尤为必要。同时,为了避免法律体系冲突和市场破坏,应采取中央立法先行的策略,营造鼓励科技创新的法治环境。第三,人工智能立法的价值是打通人工智能产业发展的痛点和堵点。科技发展原则上是市场自由竞争的结果,不需要法律进行干预,不少“促进法”往往流于形式而浪费立法资源。但是,法律制度也可以通过具有强制约束力的规则促进产业发展。一是划定责任边界以增强投资预期,如明确人工智能研发者、运营者的责任边界,在人工智能领域要坚持“避风港规则”,促进产业发展;二是解决市场资源配置低效的问题,通过立法为数据供给、算力供给和应用部署建立协调机制,推动人工智能技术的发展;三是打造行业生态,通过国家立法在财政支持、人才培养、行业激励等方面提供扶持措施,从而促进专门人工智能行业生态体系的形成。第四,人工智能法的活动空间在于人工智能立法与现行相关法律之间的关系处理。在我国人工智能立法的过程中,明确其与现行相关法律之间的关系至关重要。这不仅有助于构建协调统一的法律体系,而且能够确保法律的适用性和前瞻性。一是在促进科技发展方面,人工智能立法应充分借鉴并吸收《科学技术进步法》的主要内容。这将确保人工智能作为科技进步的重要驱动力,能够在法律框架内得到有效的促进和支持。二是明确人工智能立法与《网络安全法》《数据安全法》和《个人信息保护法》之间的关系。它们的联系在于,都涉及数据处理行为,共同构成数字经济的法律保障体系;区别在于,人工智能立法更侧重于调整算法运行规则行为,关注人工智能系统如何自动化地模拟、辅助或取代人类行为,并创造新型的人机交互关系。在这个过程中,数据的输入输出处理仍需遵循《个人信息保护法》和《数据安全法》的规定,而算法规则本身则成为人工智能立法的核心。人工智能系统的开发流程,包括模型选择、参数训练等关键环节,对系统性能至关重要,但往往超出了传统数据处理法律的调整范围。人工智能治理的着眼点是智能社会秩序,人工智能中以算法为基础的计算模型结构实际上成为了一种虚拟社会的规则。治理虚拟空间存在一些不透明、不公平、不安全的风险,其治理机制往往不是将保护个人的控制权作为目标,而是将数字社会规则或者数字社会环境的控制权或者公共秩序作为目标。所以,新的人工智能法应当特别强调公共行政监管的逻辑,对于私人权利保护也需要更多发挥行政机关的作用。简单讲,《网络安全法》《数据安全法》《个人信息保护法》构成了人工智能立法的基础性规制,但它们都缺乏对人工智能进行规范的针对性和体系完整性,人工智能立法可以说是在这三法基础上的延伸和专门化。三是明确人工智能立法与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》之间的关系。这三个部门规章都有很强的针对性,构成了未来人工智能立法的工作基础。对于人工智能立法与这三部规章之间的关系,笔者的建议是这三部规章的重要内容都要被吸收到未来的人工智能法当中,其具体的细致规定可以作为未来人工智能法的配套法规出现。第五,人工智能在立法节奏上如何把握。现在是不是立法的最佳时机,一直是立法的犹疑之处。人工智能产业界不乏有“让子弹继续飞”的呼声。但是,我们必须清醒地认识到,人工智能的发展带来的风险,如自我决定的削弱、高风险技术的泛化等,需要立法来确保其在安全轨道上发展。同时,打破“数据孤岛”、建立人工智能发展与数据合理使用制度等,也需要通过立法来解决。当前,中国亟需在发展与安全两个维度为人工智能提供牵引作用,避免国际竞争中的不利局面和系统性风险。鉴于欧盟和美国已经开展了综合性的人工智能立法,中国也需要有相关的立场和举措来彰显我国人工智能产品的安全可靠性,保障产品的透明度和安全性,使技术和法律共同迈入国际市场。考虑到立法周期长,各界对于人工智能立法的方向尚未能达成一致,建议国家尽早提出人工智能法草案供社会各界充分讨论,待时机成熟适时通过我国的《人工智能法》。我国人工智能立法应当采取综合立法与行业配套立法相结合的立法体系,以立法形式满足我国人工智能治理对国家基础法律制度的需求。在我国人工智能立法的进程中,确立一系列基本原则和具体制度至关重要。这一体系的构建不仅应促进人工智能的健康发展,保护社会公共利益,还应与国际标准和实践保持协调,确保我国在全球人工智能领域中的竞争力和话语权。一是人工智能的法定概念及其调整范围。人工智能定义应涵盖从感知到决策的自动化系统,包括机器学习、逻辑和知识系统,并界定其特征。调整范围应涵盖开发者、运营者、使用者的权利与义务,以及国内外系统的地域范围,确保法律的普遍适用性和针对性。二是人工智能法的基本原则。立法应确立鼓励创新、协同治理、公众参与、安全治理四项基本原则,旨在促进技术发展、确保社会各方的参与和监督,并建立公众对技术的信任和信心。三是建立人工智能风险管理制度。借鉴欧盟《人工智能法案》的经验,未来我国《人工智能法》应建立人工智能风险评估和分类分级治理制度,科学划分应用类别和风险等级。依据人类参与程度和对人类权益、社会秩序的影响,将风险分为不可接受、高、有限和低四类,并建立相应的监管规则和评估方法。这一制度的建立有助于对不同类型的人工智能应用采取差异化的管理措施,确保风险管理和创新发展的平衡。四是完善“透明度”和备案等监管措施。基于风险分类建立透明度和备案要求,明确备案对象、内容和流程,对高风险系统建立风险管理系统,对有限风险系统要求透明度和用户知情权,对低风险系统鼓励制定行为守则。五是健全人工智能损害救济和分担机制。为了提高受害者救济能力,立法需明确侵权责任原则,并建立责任保险制度。责任主体可能包括供应商、进口商、经销商和使用者,具体应根据控制权和风险处置能力确定。高风险系统必须购买责任保险,以确保在发生损害时,受害者能够得到及时和充分的救济。现代风险社会受害者救济不能仅依赖法律责任机制,还应建立健全人工智能发展损害救济基金,以此来分散损害风险,减轻人工智能产业发展的压力,推动人工智能的创新发展。六是完善协同监管和企业行业自律机制。落实放管服监管理念,避免监管重复和真空,建立由中央网信办统筹、多部门分工的监管机制,并发挥行业组织和社会公众的监督作用。通过技术标准、风险评估等措施,加强行业组织的自治作用,鼓励在人工智能的研发和运营过程中的公众参与及监督,形成全社会共同治理的新格局。历史上的颠覆性技术创新都带来了新的立法,以通用人工智能为代表的新技术作为全球公认的一项颠覆性技术创新,也必然形成专门立法。国务院办公厅在2023年度立法工作计划中首次提出“预备提请全国人大常委会审议人工智能法草案”。这一规划的法律名称表明,中国的人工智能立法选择了综合性立法路线,同时可以包含安全治理和产业发展的双重立法目标。《十四届全国人大常委会立法规划》在一类立法规划中也提出:“推进科技创新和人工智能健康发展……要求制定、修改、废止、解释相关法律,或者需要由全国人大及其常委会作出相关决定的,适时安排审议。”这一规划兼顾了人工智能立法的紧迫性和灵活性,有利于相关部门积极推进相关工作。为此,我们要有从容应对的心态和时不我待的责任感推动中国《人工智能法》的出台。摘要:自2023年6月国务院将“人工智能法”列入立法计划以来,学界关于中国人工智能立法的讨论日益广泛深入。与此同时,全球人工智能治理活动如火如荼。在此背景下,中国如何通过人工智能立法打造中国制度名片,提升国际影响力,是需要迫切研究的课题。为了回答这个问题,中国学术界已经先后推出《人工智能示范法(专家建议稿)》《人工智能法(学者建议稿)》两项成果,前者又分为 1.0、2.0 两版本。两部建议稿旨在推动讨论、凝聚共识,为我国人工智能立法提供参考。在我国明确人工智能立法导向之后,如何凝聚立法共识,应当凝聚什么样的立法共识,成为当下政产学研各界亟需讨论回答的问题。本文旨在通过梳理现有的学界研究讨论成果,结合各国和地区的人工智能立法经验,提出中国人工智能立法当下应确立的制度共识,并探讨人工智能立法的定位。基于参与国际治理与推动国内治理的需要,并对立法成本予以权衡,笔者认为,我国应凝聚人工智能的“总则式”立法共识。当下政产学研各界的讨论中,以善治促发展是我国人工智能立法的共同理念。对人工智能技术、服务与应用应采取审慎包容的监管而非照搬欧盟立法思路。应结合中国在国际竞争与博弈中的地位,充分考虑人工智能中的权益保护与国际合作部分。第一,以善治促发展是人工智能立法的理念。
我国人工智能立法应以促进产业发展为主要特色,立足我国人工智能产业发展实际,坚守防范安全风险的底线,力争兼具前瞻性、先进性和本土性。我国人工智能产业“领先的追赶者”的独特国际生态地位,要求我们在技术和产业的国际竞争中以发展为制度设计的主要目标,安全问题也需要通过技术发展来回应和解决。在立法原则层面,学界发布的两部建议稿高度一致。《人工智能法(学者建议稿)》将人工智能安全这一立法目标细化拆分为公平公正原则、透明可解释原则、安全可问责原则、正当使用原则。尤其是创新性地提出人工介入这一基本原则,以保证在人机交互中人类始终保有主体地位。《人工智能法示范法 2.0(专家建议稿)》基本原则包括:治理原则、以人为本原则、安全原则、公开透明可解释原则、可问责原则、公平平等原则、绿色原则、促进发展创新原则。促进人工智能发展是各界人工智能治理的共同理念。因此《人工智能法(学者建议稿)》中设立“促进与发展”专章,也在监督管理、责任设置等方面对此予以充分考虑,减轻了人工智能产品和服务提供者的义务,对产业创新予以一定的容错空间和责任豁免。促进人工智能发展应针对数据、算力、算法三个领域的需求,提供更大范围的高质量数据资源和算力资源支撑。《人工智能法(学者建议稿)》提出开源生态建设、产业场景培育、数字素养等条款,以多层次、全方位塑造有利于产业发展的社会氛围。《人工智能法示范法 2.0(专家建议稿)》则建议设立人工智能特区并采取授权立法机制。二者都基于同一方向提出了不同的立法建议。此外,《人工智能法(学者建议稿)》还设置了人工智能保险制度,鼓励保险市场介入,在既有的网络安全保险、第三方责任险等传统商业险种的基础上,探索适合人工智能产业的保险产品。面对用户不当使用可能导致的虚假信息泛滥等风险,还以整体性风险治理的理念提出公民数字素养的提升,从用户端预防和控制人工智能技术安全风险。第二,开创中国本土人工智能监管制度。
欧盟《人工智能法案》基于风险大小的人工智能分级监管思路,已成为多国立法参考的对象。但欧盟的这种做法并不必然适用于我国。我国应立足实际,制定符合我国需求的人工智能分级监管路径。在建立中国本土人工智能监管体系的思路上,两部建议稿不谋而合。《人工智能法(学者建议稿)》通过区分关键人工智能、一般人工智能和特殊人工智能,避免了“一刀切”的不合理监管。在分级分类监管时,由相关部门根据技术发展、行业领域、应用场景等因素进行评估并动态调整,及时更新人工智能分级分类指南,实现敏捷治理。《人工智能示范法(专家建议稿)2.0》则提出了“负面清单制度”,对负面清单所列应用设置事前许可。关键人工智能的重点在于动态监测和安全义务,其并未采取中国社科院发布的《人工智能法示范法 2.0(专家建议稿)》中负面清单制度中的事前许可审批制度。关键人工智能没有设置事前准入门槛,仅在接收到被主管部门认定为关键人工智能的通知后,才需履行监管平台备案等义务,体现了人工智能监管的敏捷性与灵活性。关键人工智能的义务相对于一般人工智能主要包括,开发者和提供者需要建立风险披露机制和安全事件应急处置机制,以此确保关键人工智能发展的安全性。特殊领域的人工智能则是根据不同的应用场景,分别有针对性地增加安全义务。《人工智能法(学者建议稿)》希望通过这一制度设计,为产业创新减轻事前的准入负担,在确保安全需求的同时,鼓励我国企业积极参与人工智能开发和创新,促进人工智能产业健康发展。第三,中国人工智能立法中的权益保护与国际合作。在全球范围内,随着联合国人工智能咨询机构的成立,人工智能国际治理雏形渐显,世界主要国家和经济体纷纷在监管建设、国际合作、产业发展、政策研究等多个层面加大投入,希望争取在国际人工智能治理层面的主导权。(《为人类治理人工智能》报告封面。图片来源:联合国官网)一方面,注重权益保护彰显人本主义,是各国人工智能立法的最大公约数。《人工智能法(学者建议稿)》在制度设计上积极贯彻我国《全球人工智能治理倡议》中“以人为本”的治理理念,高度重视科技伦理与使用者权益。《人工智能法(学者建议稿)》除了在个人权益保障专章明确保护平等权、知情权、隐私及个人信息保护、拒绝权,还特别关注到数字弱势群体可能面对的数字鸿沟,明确人工智能开发者、提供者应当专门增设面向数字弱势群体权益保护的特殊功能模块。此外,《人工智能法(学者建议稿)》还从社会整体层面为人工智能时代公众的利益提供保障。在教育领域,学者建议稿提出推进人工智能相关学科建设,开展人工智能相关教育和培训,采取多种方式培养人工智能专业人才。为提升全民数字素养,学者建议稿支持实施全民数字素养与技能提升行动,提升公民的数字获取、制作、使用、评价、交互、分享、创新、安全保障、伦理道德等素质与能力。最后,学者建议稿筹划了政府主导、社会协同、公众参与的人工智能多元治理格局。另一方面,人工智能治理必须通过有效的国际合作才能够实现。《人工智能法(学者建议稿)》考虑到国际人工智能治理形势,设置了国际合作专章,在人工智能安全风险全球化背景下,重视人工智能治理的国际合作与交流,积极参与制定人工智能有关国际规则、标准,推动构建开放、公正、有效的全球人工智能治理机制。人工智能全球治理不仅关系国际合作,也关乎国际博弈。我国未来人工智能立法中应明确规定,任何国家和地区对我国人工智能开发应用采取歧视性措施的,我国有权采取相应的反制措施。这一方面可以让我国采取反制措施有法可依,维护我国的合法权益;另一方面也是向国际社会明确表达相互尊重、平等互利的立场,反对利用技术垄断和单边强制措施制造发展壁垒。一部法律的定位是立法理念的核心问题与前提基础,无法精准把握《人工智能法》的立法定位,不仅会导致《人工智能法》难以与现有法律规范统筹协调,还会对《人工智能法》的立法结构、具体规定以及实施效果产生不良影响。在目前学界的讨论中,《人工智能法》面临着要素法、产业法、服务应用法以及基本法的选择;而无论是要素法、产业法,还是服务应用法,似乎均无法完成《网络安全法》《个人信息保护法》《数据安全法》三部法律留给《人工智能法》独特的历史使命。结合我国人工智能治理的现实困境以及未来图景,基于综合全面的考量,“人工智能时代的基本法”才应当是对《人工智能法》的准确定位描述。谈及《人工智能法》的立法定位选择,最重要的考量因素在于该选择是否能够正确处理《人工智能法》与《网络安全法》《个人信息保护法》《数据安全法》三部法律之间的关系。第一,从过往要素治理的视角出发,《人工智能法》可以被定位为要素法。这意味着其调整对象将关切人工智能技术、产业的诸要素,即包括底层的信息网络、算力基础设施以及数据要素、算法模型等。该立法定位,一方面可以弥补上述三部法律所遗留的对于算力、算法、模型等要素的立法空白。另一方面,随着人工智能各要素之间的纵深融合,从单一要素视角看待人工智能已经无法对人工智能进行准确描述,《人工智能法》对于人工智能各要素的有机融合,有助于搭建综合考量各要素的全面治理框架。但针对特定技术要素进行立法的模式,存在不可忽视的局限性。其一,要素法的选择意味着《人工智能法》对人工智能的技术定位在于要素的综合体,如此静态的技术性质判断,并不能应对技术高速发展带来的不确定性。其二,《数据安全法》针对数据这一核心要素,并围绕数据的收集、存储、使用、加工、传输、提供和公开等进行了全面规范,是要素法的典型代表。如果《人工智能法》同样采取该定位模式,势必会导致立法的冗余和立法资源的浪费。第二,考虑到人工智能实现了产业的全面部署并不断促进产业升级,《人工智能法》也可以被定位为产业促进法。产业促进法定位下的《人工智能法》,既可以体现对技术产业发展的促进导向,又可以推动人工智能在生产生活中的合理应用。以发展为立法目标的《人工智能法》在内容上基本不会与上述三部以保障安全为立法目标的法律相重合。以《数据安全法》为例,其以建立健全国家数据安全管理制度和落实数据安全保护义务为主线,对数据开发利用的相关规定过于原则,无法为人工智能开发过程中涉及的数据利用问题提供具体的规则指引。但产业法的立法定位可能会导致《人工智能法》过分关注人工智能技术的产业链条与商业化运营,聚焦人工智能产业的经济利益。这一方面忽视了人工智能对社会伦理、社会关系的深层影响;另一方面,也无法满足符合作为数字基础设施的基础模型的治理需求。第三,鉴于我国人工智能治理的前期制度基础,人工智能立法还有服务应用法的定位选择。服务应用法规制的重点是人工智能在服务应用层产生的法律问题,由于位于人工智能产业链终端的服务应用层直面终端消费者并为其提供服务,该定位下的《人工智能法》可以更好地保护用户权益,针对性地解决实际问题。但也存在着在信息内容安全等问题上与此前三部法律的条款交叉重叠的可能性。因为,当前生成式人工智能防范技术尚未成熟,服务应用层面难免因此产生虚假信息生成、传播等信息内容安全问题。而信息内容安全既是传统网络信息内容治理面临的主要问题,也是人工智能尤其是生成式人工智能亟待解决的治理难题。在立法起草过程中,很难规定一种万能的选择立法解决方案的方法。每一种立法选择都具有其优势和风险。但相较于要素法、产业法和服务应用法的定位,将《人工智能法》作为基本法的定位更能发挥其高位阶的统领及体系化的秩序作用,并能够适用人工智能技术发展的不确定性、满足中国实际的治理需求。首先,基本法相较于要素法、产业法和服务应用法,其内容上更具统领性、一般性与综合性。基本法定位下的《人工智能法》涵盖人工智能技术发展、产业应用以及社会伦理等方面,需确立统一的基本原则和核心价值观,而不需要像要素法聚焦人工智能的不同要素,产业法具体规定产业链的各个环节,以及服务应用法局限于服务应用单一场景。可以说,基本法是要素法、产业法和服务应用法的高层次指导。此外,基本法的定位能够很好协调与上述三部法律以及相关部门规章的关系。相较于其他的立法定位选择,基本法的定位统合了网络、数据、算法、算力、应用五大基础领域的安全与发展问题,可以更好地发挥《人工智能法》高位阶的统领作用。特别是跨多个行业、多个政府机构、多个司法管辖区域和利益相关者团体的人工智能治理场景下,基本法可以更好地满足协调治理的需求,应对人工智能所引起风险的复杂性、系统性和不可预见性。其次,作为人工智能时代的基本法,《人工智能法》需要提供一个体系化的治理框架。体系不是法律在形式上的追求,而是法律应当所具备的“德性”之一。只有坚持基本法的立法定位,才能协调人工智能治理相关法律规范和标准,保障人工智能治理体系的可预期性。基本法的定位对《人工智能法》的立法进路提出了较高的要求,需要立法者全面考虑人工智能技术的快速发展和广泛应用所带来的多重影响,但相较于要素法、产业法和服务应用法,基本法的定位能够全面、系统地考虑人工智能技术的发展现状和未来趋势,为人工智能的安全与发展提供坚实的法律基础和保障。最后,《人工智能法》的基本法定位在确立总体框架和原则的同时,为未来的法律调整和补充预留了空间和接口。随着技术的发展和社会的变化,《人工智能法》可以灵活调整和更新,保持适应性和前瞻性。人工智能立法面临着新技术迭代升级和产业快速增长的形势,基本法的立法定位并不对人工智能技术进行价值预设,而是将人工智能视为政治、经济和技术三位一体的复合型对象。相比之下,要素法隐含着人工智能是技术要素组成的定位,没有考虑到人工智能推动数字社会生产变革的切面;产业法则是局限在数字社会生产场景下将人工智能视为推动数字经济发展的关键工具,强调“物质刺激的力量而忽视良知的力量”,会导致社会问题的恶化;服务应用法的定位则是将人工智能视为一种服务与应用的模式。然而,面对人工智能所引发的技术链式突破,人工智能立法需从之前网络立法关注的服务应用层面拓展至技术研发层面与要素治理层面。中国人工智能立法的“总则式”进路既可以有效确认中国人工智能立法现阶段各界的共识,又可以满足当下人工智能国际治理和打造中国制度名片的迫切需要,同时为未来人工智能全面立法留足空间。第一,中国人工智能立法的“总则式”进路,能够有效在现阶段凝聚各方共识,确认人工智能治理的基本制度。虽然《人工智能法》应当作为人工智能时代的基本法,但立法时不应抱持“毕其功于一役”的理念,一蹴而就地出台一部大而全的法典。社会各界对如何治理人工智能技术、要素和应用等问题尚存在争议,其中不乏人工智能立法会制约技术发展的观点。因此,如何促进社会各界达成人工智能立法的共识,既解决人工智能治理的紧迫问题,又为未来的发展留足空间,都是人工智能立法需要考量的问题。基于此,现阶段《人工智能法》的立法工作应当坚持“总则式”进路,采取“立总则、廓主线、留接口、适时灵活推进”的进路。参考《民法典》的“总则式”的立法体例,可以通过“提取公因式”的方式对立法目的,人工智能技术、产品与服务必须遵循的基本原则,基本法律制度应遵循的一般性规则,以及我国人工智能治理的基本理念与基本立场进行明确。第二 , 人工智能立法的“总则式”进路能够满足当下人工智能治理和打造中国制度名片的迫切需要。《人工智能法》作为中国人工智能治理体系的提纲挈领之作,应当确立人工智能治理的总则,起到价值统领作用。人工智能法调整对象是治理人工智能技术、产业和应用全链条及在此基础上形成的复杂系统与社会生态。这意味着《人工智能法》是一项系统性工程,涉及多个层面和维度。要保障人工智能立法的科学性,应当充分借鉴我国立法的成功经验。具体而言,其一,立法目的方面,应当包括促进人工智能技术创新与应用、维护社会公平与正义、推动人工智能产业健康发展等。其二,应当明确贯穿整个人工智能治理体系的基本原则。其三,在基本理念和立场方面,应当充分表达中国始终将人民的利益和福祉放在首位,积极参与国际人工智能治理合作的人本主义立场。第三,人工智能立法的“总则式”进路为未来人工智能全面立法留足空间,也可搁置当下无法达成共识的争议。“总则式”的《人工智能法》功能在于明确治理方向和主要问题,廓清人工智能治理的主线。一方面,人工智能立法需从之前网络立法关注的应用层面拓展至要素聚合的治理层面。从技术发展的角度来看,人工智能应用随着技术的链式突破不断改变。以应用为调整对象的立法模式,难以适应技术发展给调整对象带来的不确定性。《人工智能法》可充分借鉴既往法治实践中累积的应对不确定性的技术发展、社会关系变化风险的经验,兼顾人工智能产业发展所涉的诸要素,并提炼规范人工智能要素的共性规则。首先,在算力层面,《人工智能法》应当对算力基础设施建设、算力资源利用、绿色算力发展等进一步细化。算力作为人工智能发展的基础,其建设和管理直接影响人工智能技术的应用和推广。因此,相关制度应对算力资源的公平分配、节能环保等方面作出明确规定,确保算力资源的高效利用和可持续发展。其次,在算法层面,《人工智能法》应当对透明度要求、风险评估义务、内容标识、算法备案、人工智能审计等规则予以完善。最后,在数据层面,作为人工智能的“燃料”的数据,其质量和安全性直接影响到人工智能的表现。数据投喂带来价值偏见、隐私泄露、数据污染等新的数据安全挑战,同样需要《人工智能法》的关注与回应。待到未来社会全面步入人工智能时代,监管方积累了充分的治理经验时,则可以考虑制定人工智能的综合性立法及至最终的人工智能法典。面对人工智能的迅猛发展及其给传统法律制度带来的挑战,有效的人工智能治理刻不容缓。“良”性治理离不开“良”法施行,高位阶的人工智能立法成为各国人工智能治理的布局重点,并逐步成为各国抢抓人工智能国际治理主导权的重要发力点。基于此,本文在分析中国人工智能立法迫切性与必要性的基础上,梳理现阶段达成的立法共识与人工智能治理的迫切需求。当下,中国人工智能立法应凝聚“总则式”立法共识。摘要:人工智能快速迭代、广泛渗透,既会带来伦理失序、技术失控等新风险,也会加剧技术黑箱、算法歧视等旧问题,亟待从法律上系统作出回应。中国学界先后推出的《人工智能示范法(专家建议稿)》《人工智能法(学者建议稿)》两项成果,在为国家人工智能立法工作提供具体条文和制度设计参考的同时,也持续凝聚着政产学研各界关于促进和规范人工智能发展的法治共识。但是,学术的争鸣不能替代制度的供给。有必要加快深入分析总结人工智能发展和安全的法治需求,更好研究制定符合我国国情、顺应世界发展潮流的人工智能法律制度体系。起草《人工智能示范法(专家建议稿)》,既希望通过以示范法形式对未来我国的人工智能立法提供示范参考,也希望以此为基础,探讨中国人工智能治理的理论命题和范式,形成体现中国网络与信息法治特点,符合中国新兴领域发展需要的人工智能法治话语体系,也为人工智能产业的发展提供示范的合规指引。综合考量我国人工智能治理实践和人工智能发展需求,《人工智能示范法(专家建议稿)》中采取了设立人工智能专门主管机关、建立人工智能负面清单的治理模式,同时尽量避免过度超前创设新兴权利,为未来的人工智能应用划出底线、留足空间。第一,设立人工智能专门主管机关。不同于《人工智能法(学者建议稿)》在统筹协调机制下由各部门在职责范围内负责人工智能监督管理工作的思路,《人工智能示范法(专家建议稿)》提出设立国家人工智能办公室作为国家人工智能专门主管机关,同时在省级人民政府和较大的市的人民政府中设立负责辖区内人工智能治理的人工智能主管机关,将人工智能领域的规则制定、监管执法、促进产业发展等职能集中于人工智能主管机关,避免监管领域交叉重叠可能导致的“九龙治水”难题。实践中,具体的应用场景、商业模式往往难以明确区分,某几种人工智能服务或应用可能落入多个部门的监管领域中。此时,既有可能出现各部门均进行立法、重复监管的问题,也有可能出现各部门均怠于立法、监管空白的情况。设立“统筹协调”机制解决这一问题,必然要明确统筹协调机制与各参与部门之间的权限划分,事实上仍然是由统筹协调机制作为一个整体负责部门牵头制定人工智能领域的基础性规则和通用标准,其他部门则负责结合本行业内具体情况进行执法;而相比于多个部门共同负责或者指定某个部门作为统筹协调的负责部门,设立集中统一的人工智能主管机关并由国家人工智能主管机关领导各级地方人工智能主管机关履职,可以更加系统地掌握人工智能的发展和治理情况,制定更加协调统一的人工智能规则、标准,也便于人工智能研发者、提供者与主管部门进行沟通协作。除此之外,人工智能主管机关还可以作为我国与其他国家、国际组织就人工智能治理合作进行对等交流的机构,配合外交部门提升我国参与人工智能全球治理的专业程度。当然,设置集中统一的人工智能主管机关,并不排斥在制定人工智能治理细则、实施监管执法时,吸收对应行业、领域的主管部门参与。第二,以负面清单替代分类分级管理制度。不同人工智能技术的底层逻辑千差万别,如何防范、如何控制、如何消除人工智能在不同环节、不同应用场景下的风险,尚无可通用的标准答案,而只能予以场景化、类型化的类案分析。为了回应类似需求,欧盟《人工智能法案》尝试基于发生风险的概率和严重程度对人工智能进行全面的分类分级,并根据分类分级的结果禁止实时生物识别等少数人工智能应用,同时对高风险的人工智能施加较为严格的合规义务。但是,如果将风险评估、划分的义务更多地赋予人工智能研发者、提供者,例如要求其自行评估、判定其所研发或提供的人工智能系统的风险,则有可能迫使研发者、提供者为确保合规而笼统地按尽可能高的等级来确定人工智能系统的安全风险,以避免出现不可预料的高风险及承担相应的法律责任。此外,设置多个不同等级的风险虽然划分更加细致,但在实践中对企业合规的参考价值相对较小。为保证一定的冗余度,企业会在难以判别自身所需合规举措时主动采用更高乃至最高的风险防范标准。这种“就高不就低”的导向固然可以防患于未然,但也会损害技术创新的积极性。因此,相较于已有的分类分级监管模式,《人工智能示范法(专家建议稿)》仅将风险明确为“高风险”“低风险”两级,同时有针对性地明确何种特定人工智能服务、应用属于高风险。在明确高风险人工智能的基础上,可由监管部门建立人工智能“负面清单”,对清单内的人工智能研发、提供等活动设置较高的准入门槛及合规义务。清单之外的人工智能研发、提供活动则仅需承担一般性的安全义务,以减轻研发者、提供者的风险防范负担。“负面清单”不需要人工智能研发者、提供者自主确定所研发和提供的人工智能应属何种范畴,未在负面清单中列举的人工智能服务和应用均视为低风险。同时,为了对可能出现的风险实施必要的防范,“负面清单”也应不断更新,及时纳入属于高风险范畴的人工智能。此种模式可以为人工智能产业提供更高的确定性,减少人工智能新技术新应用分类分级不明确而无法形成一致标准的情况,也与我国《促进和规范数据跨境流动规定》在数据跨境领域实施的“负面清单”相仿,能够在划定安全底线的前提下鼓励企业大胆探索、积极创新。第三,审慎设置新型权利。近年来,不乏有从权利视角介入人工智能或其他新兴技术治理,主张赋予个体以若干项新型权利的研究和讨论,但从目前技术发展阶段来看,各种新型权利的内涵尚不明晰、权利实现机制尚不成熟;从学术研究角度固然可以进一步探讨其合理性,但在制度设计的维度,则应保持审慎,仅作必要的规定,并留出未来进一步修改、完善和进行制度衔接的空间。例如,《人工智能示范法(专家建议稿)》设置了人工智能使用者要求提供者作出解释的权利,但对此种“解释权”设置了一定限制,不仅将其适用条件限于人工智能产品、服务对个人权益有重大影响的情形,还允许提供者综合考虑产品、服务的场景、性质和行业技术发展水平等因素作出反馈,而没有就解释的内容、解释方式方法等进行明确规定。这是因为,类似的权利内容在个人信息保护等现有制度中已有体现,通过现有的知情权、监督举报权等权利行使足以满足需要。当然,在人工智能发展过程中,未来可能会遇到需要在特定领域设立某项权利,或广泛赋予个人以某项权利的情况 ;但在技术发展尚不充分、尚不完善的情况下,不应急于通过创设更复杂的权利义务关系解决发展中尚不明晰的问题。如果所设立的权利在实践中无法得到有效实现,或与现有权利内容重复度较高,则既无益于保障权利,也无益于促进发展。结合现有的研究与实践,未来的《人工智能法》应主要把握促进法、安全法与程序法三重定位。与侧重于禁止性、命令性规定的管理型立法不同,促进型立法在设范方式上更加灵活,以鼓励性、任意性规范为主,从服务而非监管的角度,引导、支持特定领域或事业的发展。第一,在数据供应方面,要在扩大数据供给的同时,降低人工智能训练过程中数据合理使用的制度门槛。人类生产生活过程中产生的数据看似无穷无尽,但经筛选与加工以后真正对人工智能训练有实际价值的数据却并非如此。图书、文献等高质量数据的更新速度远小于网络空间内的信息流规模,在人工智能训练需求不断扩张的趋势下,高质量数据到 2027年就有用尽的风险,甚至低质量数据也可能在本世纪中叶消耗殆尽。因此,既要在现有共享数据库、公用数据库基础上进一步支持人工智能领域基础数据库和专题数据库,扩大用于人工智能训练的公共数据供给范围,也要明确人工智能训练数据合理使用制度、个人信息合理使用制度,减轻人工智能研发者承担的不必要的合规义务。例如,经去标识化技术处理的个人信息在理论上仍可借助额外信息复原,因此《个人信息保护法》仅将这一技术作为安全措施的一种,个人信息处理者即使采用了去标识化技术也不能免于承担《个人信息保护法》规定的其他义务。但是,在人工智能训练场景中,触达训练用原始数据的权限较为可控,个人信息因与其他数据混同用于训练而复原难度大大增加,实际上已几乎不能从人工智能输出的结果反向识别出其训练过程可能涉及的特定个人,个人信息权益受影响风险较其他场景显著降低。故可考虑在人工智能立法中针对人工智能训练出台专门规定,明确人工智能研发者、提供者采用符合国家标准的去标识化技术对个人信息进行处理并仅用于人工智能训练时,可豁免其履行个人信息处理者义务。第二,在算力供给方面,应通过建立公共算力资源供给制度、推动公共算力资源平台建设与利用、加强算力科学调度等方式,解决企业尤其是中小型企业在人工智能研发过程中所面临的算力资源不足的问题。统筹算力资源既包括我国北京、上海、广州等地正在建设或已经建设的公共算力资源平台,也包括一些科研机构、大型企业为开发自有人工智能系统而筹集的算力资源。在互惠互利、公平合理的前提下,可以探索算力资源市场化交易,促进公共算力资源、私有算力资源的共享互通,提高算力资源利用效率。第三,在支持算法创新方面,除了鼓励闭源模型的发展外,还要重视开源人工智能生态对人工智能技术创新的驱动作用。开源人工智能以开放式的知识共享机制为核心,不仅能够吸引中小规模研发者参与协作,也有助于大模型的优化完善。可以在立法中明确国家对建设、运营开源开发平台、开源社区的支持与鼓励,也可以探索设立开源人工智能基金,提供专项资金促进开源人工智能生态的繁荣,并可鼓励政府机关先行先试,应用符合要求的开源人工智能。第四,出于激发人工智能创新活力、促进先行先试和控制负外部性的影响,还可以参考经济特区、浦东新区和海南自由贸易港的授权立法模式,在已有国家新一代人工智能试验区基础上作出更进一步的制度安排,选择人工智能发展要素聚集度好、立法能力强、治理水平高的“试验区”设立“人工智能特区”,建立授权立法机制。人工智能特区所在城市人民代表大会及其常务委员会,可以结合特区内人工智能创新发展实践需要,遵循宪法以及法律和行政法规的基本原则,就人工智能研发、提供、使用活动制定法规,在人工智能特区范围内实施。人工智能特区法规应当分别报全国人民代表大会常务委员会和国务院备案;对法律、行政法规的规定作变通规定的,应当说明变通的情况和理由。人工智能特区法规还可以就同一事项,与部门规章或特区所在省、自治区、直辖市的地方性法规、地方政府规章作出不同规定,并优先适用。突出人工智能立法的安全法定位,主要是划定人工智能研发、提供过程中的安全底线,建立人工智能安全评估、审计和应急处置制度,科学区分人工智能全生命周期中各主体的安全义务。例如,就人工智能技术自身的安全风险,在设置负面清单对高风险人工智能实施更严格监管的基础上,还可以参考《个人信息保护法》对大型平台设置制定平台内规则、处置平台内违规行为等特殊义务的做法,要求基础模型研发者对自身研发模型的安全性负更高的注意义务,并应专门采取合规措施保障基础模型安全。此外,为落实一般主体的安全防范要求,也可以根据主体从事活动的不同,区分人工智能研发者、提供者,有针对性地设置不同义务。人工智能研发者应更加注重所研发的人工智能系统在技术上的安全风险,而人工智能提供者应侧重于及时向研发者和监管部门反馈人工智能运行过程中出现的问题,关注对使用者可能造成的影响。当然,人工智能立法需要防范的安全风险不止技术自身的潜在风险,也包括人工智能技术发展应用过程中,外部因素干扰所带来的有害信息倒灌、产业链供应链受影响等安全风险。对此,人工智能立法应与《反外国制裁法》等法律法规形成制度衔接,设计对其他国家和地区不合理措施予以必要反制的法律依据。人工智能是新兴技术领域,无论是促进其发展还是对其风险进行治理都无太多先例可循,这一过程中可能产生行政权力过分干预行业发展的情况。未来在人工智能专门立法的框架下,应由人工智能主管部门及时制定类似《网信部门行政执法程序规定》的履职制度,规范与人工智能有关的行政执法程序,避免过于频繁的检查、执法和监测对人工智能研发者、提供者的经营活动造成阻碍。同时,也需要注重人工智能治理规则的可操作性。例如,关于监管部门制定人工智能负面清单的标准以及基础模型的概念等问题,除了评估其可能对社会秩序、法秩序造成的冲击外,也需要遵循特定的技术指标。在基于清单进一步斟酌清单内外监管制度时,应避免给主管机关、人工智能研发者和提供者增加不必要的负担。对负面清单内的人工智能研发、提供活动,综合防范风险的需求,宜采取许可申请制,实行事前监管;对负面清单外的提供活动,则可以实施以备案为主的事后监管,人工智能研发活动在未转化为实际应用前则可不作备案要求。区分许可与备案、事前监管与事后监管,虽然将清单外人工智能研发与提供活动纳入监管范围,但此处所指“备案”及其他监管执法、风险监测活动,不应成为人工智能研发者、提供者正常经营的阻碍。就备案而言,对于应备案而未履行备案义务、通过不正当手段取得备案等情形,相关主体仍应承担相应的不利后果;但是,只要材料符合形式要求、信息齐备,人工智能主管机关就不应利用备案流程变相实施实质性审查,而应准予备案。在未超出法定期限的前提下,只要申报材料已提交,备案流程的完成也不应成为开展人工智能提供活动的必要前提。总而言之,人工智能立法不仅要对新技术、新应用带来的风险挑战予以回应,更应着眼于为智能经济、智能社会构建具有基础性、原则性的制度框架。对人工智能带来的新问题新需求,应在充分研究论证的基础上作出必要规定,并留出未来修改、完善的空间;对不便在较宏观的高位阶立法中直接进行规定的细节性问题,应明确主管机关出台配套制度的期限,做好制度衔接。作者:苏宇,中国人民公安大学数据法学研究院院长、教授摘要:人工智能的技术路线与应用方式极为庞杂。如何对人工智能实行适当的区分式治理,是人工智能立法中最为基础和关键的问题。法律需要对人工智能作出合适的区分,避免以单一、僵化的规则调整丰富多样的人工智能对象。在国内近期有关人工智能法治的学术讨论中,人工智能法的调整对象往往被有意或无意地假定为生成式人工智能乃至大模型,而实际上这只是整个人工智能的一个局部,远难覆盖人工智能技术与应用之全貌,以此为模板设计人工智能法律体系,极易出现“挂一漏万”或“削足适履”的后果。对此,应当根据人工智能不同技术路线的特点,推行多层级分支式治理架构,构筑我国人工智能法律治理的基本框架。根据现行有效国家标准《信息技术人工智能术语》(GB/T 41867-2022,以下简称《术语》)的定义,人工智能系统是指“针对人类定义的给定目标 , 产生诸如内容、预测、推荐或决策等输出的一类工程系统”,而人工智能(在相关学科领域内)是指“人工智能系统相关机制和应用的研究和开发”。在人工智能的所有其他相关标准及已有行业实践中,人工智能都以这样一种广泛的含义被理解和运用。从人工智能发展史观之,人工智能最初是基于规则的人工智能(Rule-based AI)或“规则型”人工智能。此后,经过以神经网络为主要代表的联结主义的探索与实践,基于机器学习的人工智能(Machine Learning-based AI)或“学习型”人工智能崭露头角。根据《术语》的定义, “机器学习”是指“通过计算技术优化模型参数的过程,使模型的行为反映数据或经验”。机器学习向算法模型中引入了可训练的参数,也使得代码本身并不能以确定的规则揭示模型的决策逻辑,从而形成了所谓的“算法黑箱”,带来了棘手的治理难题。在采取机器学习路线的人工智能中,一部分模型只能在有限选择范围内作出十分明确的一类判断或决策结果,如人脸识别、形状检测;而另一部分模型则可根据输入的信息或指定的条件从十分宽广的选择范围内选择和组合元素以生成有意义的新信息,即生成式人工智能。在生成式人工智能的发展历程中,词嵌入技术的成熟和Transformer架构的运用,使语义处理技术实现了飞跃。大语言模型的诞生堪称人工智能发展史上里程碑式的革命,同时跨越不同领域、面向公众开放的通用大模型也对人工智能的法律治理带来了最大挑战。由此,人工智能的“四层二分”框架已清晰可见。首先,根据是否包含可学习和迭代的参数,人工智能可被分为学习型人工智能和规则型人工智能。其次,根据模型是否有能力生成事先未完全指定的信息,学习型人工智能可被分为生成式人工智能和非生成式人工智能。再次,根据模型生成信息的过程中是否对包含语义的载体(尤其是文本)进行编码、解码操作,生成式人工智能可被分为处理语义的人工智能和语义无涉的人工智能。最后,根据模型是否以一定强度学习了公开途径可得数据以外的知识及信息,处理语义的人工智能可分为公用模型和特殊用途模型。每一层的划分都以确定的技术特征为基础,也都具有相应的法律治理需求,可以导向治理规则的分层渐进设计,进而形塑人工智能法律体系之纲目。上述人工智能的“四层二分”框架中,风险发生逻辑、利益链条和治理思路最为简明的是规则型人工智能。在此基础上,每增加一项新的关键差异,就需要从制度层面形成相应的“治理增量”,回应相应层面的特殊治理需求,从而使我国人工智能立法形成切合人工智能技术与应用特性的多层级分支式治理框架。规则型人工智能通常采用决策树、线性回归、朴素贝叶斯分类器等“白箱型”算法,本质上是一个自动化决策系统。因此,规则型人工智能的治理规则可以参考对自动化决策系统的治理规则。民商事法律活动中,对(白箱型)自动化决策系统的应用本质上并不需要引入特别的法律规则,仅在涉及个人信息处理等领域时有所谓的拒绝自动化决策权等例外。涉及行政职能和公共服务领域,自动化决策系统的规制框架已有较多理论和实践探索,以“技术性正当程序”为代表的相关思路可以被用于构建自动化决策系统法治化的理论与制度框架。学习型人工智能较之规制型人工智能增加了两项重要特征:一是“算法黑箱”的出现。如果模型采取堆叠单元连续函数的方式逼近目标函数,从而实现“万有逼近”(universal approximation)之能力,算法模型的黑箱型特征会更加明显。与此相应的法律治理需求就是算法解释制度群,即算法解释、算法可解释性、算法透明等制度。二是可训练参数的影响。在程序代码之外,可训练参数(权重+偏置)对结果的影响举足轻重。鉴于人工智能模型在作出决策时整个参数张量的状态与训练数据和训练过程密切相关,训练数据来源复杂,而训练后的参数张量是否隐含偏见、歧视或其他违反法治价值的数理结构,无法被简单直观衡量。由此新增的法律治理需求聚焦以下两点:其一,训练数据和训练过程合规,国外早已出现的建设“公平数据分析与分类系统”之类的主张即典型要求。我国人工智能治理方面的有关行政规章已关注此方面的制度建设,如《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第7条即专条规定了训练数据处理的基本要求。其二,算法审计。算法审计不限于代码审计,尽管算法审计可以“着眼于全链条、全周期的治理”,但就目前全球范围内的主要实践来看,这一机制主要被用于发现经训练的算法模型所隐含的偏见或歧视。对于部分易受价值观影响的重要算法模型,应建立算法审计制度以防止其偏离我国法律规范所认可的价值观念。(二)第二层分支:非生成式人工智能和生成式人工智能算法解释制度群、算法审计、训练数据与训练过程合规等已可基本满足非生成式人工智能的治理需求,生成式人工智能新增的治理需求主要涉及网络信息生态内容治理,触发《暂行办法》和《互联网信息深度合成服务管理规定》(以下简称《深度合成规定》)的监管。生成式人工智能由于可以“生产”网络信息,进入网信部门的监管范围,由此而增加的治理需求及制度回应也已体现在网信部门制定的多部行政规章中。《暂行办法》对生成式人工智能初步建立了较为完整的治理框架。其中,“服务规范”第9条要求生成式人工智能服务提供者“依法承担网络信息内容生产者责任,履行网络信息安全义务”,而“网络信息内容生产者责任”来源于国家网信办2019年制定的《网络信息内容生态治理规定》。生成式人工智能的应用同时也触发《深度合成规定》的规制。《暂行办法》第22条第(一)项将生成式人工智能技术定义为“具有文本、图片、音频、视频等内容生成能力的模型及相关技术”,而《深度合成规定》第23条第一款将深度合成技术界定为“利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”,并以“包括但不限于”的方式列举了六类技术。因此,这一定义在应用上实际已覆盖生成式人工智能技术,一旦生成“网络信息”,即落入《深度合成规定》的调整范围。《暂行办法》亦认可《深度合成规定》对生成式人工智能的覆盖,如其第12条规定了“提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识”。因此,生成式人工智能因其“制作”网络信息的能力而触发一系列监管措施,但究其实质,其中不少治理增量实际上应由第三层分支承担。(三)第三层分支:处理语义的生成式模型和语义无涉的生成式模型生成式人工智能包含一个内容庞杂的谱系,基于 Transformer算法的大型语言模型只是生成式人工智能技术晚近发展出的技术路线。生成式人工智能早年的代表性算法如生成对抗网络、循环神经网络等,并不必然拥有处理自然语言文本的能力。如果一项生成式人工智能技术被用于生成无法对应现实世界的图像、纯音乐旋律、自然环境中的声音等,其引起的法律风险有限,甚至理论上并不需要触发整个针对生成式人工智能或深度合成的规制框架。然而,如果某项生成式人工智能技术有能力处理人类语言所表述的意义(典型技术如词嵌入)并使之包含于某种形式的输出中,则其可能导致的法律风险将显著提升。其不仅需要完整地接受本质上源于网络信息内容生态治理的现行多项规定的监管,还需要进一步建立和完善以测评为中心的系列治理机制,形成真正意义上的生成式人工智能生态治理体系。在生成式人工智能中,语义无涉的生成式模型尽管可能生成违法或有害信息(如包含淫秽或暴力因素的图片),但却很少真正触及复杂的政治和社会问题。处理语义的生成式模型可以实现文本向量化(vectorization),主流的方法将文本正确地分割成标记(token),并嵌入到模型可以使用的密集浮点数表示中。这使得模型有可能学习文本中不同词符及词符组合之间的关系,进而塑造模型对语义的某种数值化“认知”。只有基于一定形式的文本向量化,模型才有可能学习和处理不同形式的命题,从而形成模型自身的某种“思维链”和“价值观”,而不仅仅是非生成式模型中存在的各种局限于特定分类的“歧视”或“偏见”。如果模型能够基于丰富多样的语义针对性地调整输出,在相当程度上依赖统计学方法的算法审计就可能力有不逮;而面对规模庞大的大模型,算法解释制度群的实施面临尚未完全解决技术可行性的问题。在模型应用范围和影响力达到一定水平的条件下,需要对模型进行系统性的测评,全面检测和评价模型在价值观、安全性和关键能力等方面的表现与缺陷,这是本层分支中最关键的增量治理需求。在此基础上,目前我国呈现高度交叠的深度合成和生成式人工智能治理规则也可以被区分开来,实现“各司其职”。深度合成服务的法律治理机制足以承载语义无涉的生成式人工智能模型的治理需求,而具备语义处理能力的生成式人工智能模型则需要专门性的生成式人工智能治理法律体系,以全面应对模型在思维链和价值观等方面的复杂风险。当然,鉴于此类模型强大的综合能力和战略价值,支持和促进发展性质的引导措施必不可少;对于规模庞大、影响广泛、支撑业务众多的关键基础模型,还需要考虑以“新型数字基础设施”的定位为其提供制度保障。当前,我国学界对具备语义处理能力的生成式人工智能已给予高度关注,但主要聚焦于对不特定免费或付费用户开放的公用模型,对于特殊用途模型缺乏关注。特殊用途模型可被广泛应用于国防、外交、司法、工业、公共安全、社会管理、科学研究等领域,其主要法律风险在于:第一,特殊用途模型可能通过专门训练数据、知识推理组件、基于模型的知识编辑等方式吸纳不开放乃至保密的知识和信息,不仅数据安全风险较公用模型突出,各种评估、认证、测评、审计等第三方治理机制的开展亦备受限制。第二,特殊用途模型往往有某些性能指标的刚性约束,与公用模型的训练目标不尽相同。例如,司法大模型对回答准确率有严格的要求,但不追求与公用模型同等的有效回应率;在其选择作出实质性回答的情况下,必须杜绝编造法条、捏造规则、混淆关键概念等源于“模型幻觉”的错误。受制于大模型的技术原理,证明偏差(attestation bias)与语料库频率偏差(relative frequency bias)等幻觉来源难以完全避免,此种要求在公用模型中难以实现,但在增加了控制组件的领域模型中却属可行。这就需要针对特殊用途模型建立专门性的治理机制。特殊用途模型的治理机制主要应当是精心设计的隔离式治理机制,即保证在隔离敏感数据和专业知识的基础上,仍然尽可能实现模型的可靠与安全,以及对特定性能指标的满足。隔离式治理机制需要仔细厘定第三方专业机构(涉及国防、外交等敏感领域时甚至包括监管部门)可以介入的边界,通过模拟数据运行条件下的模型测评、算法影响评估和交付用户的参数与梯度显示功能、随机性程度调节功能、定制量化解释功能等共同实现风险治理与算法安全目标。如向模型引入的知识需要法律为其可靠性、准确性与时效性提供特殊保障,还需要建立针对张量空间的专门性监管规则,基于特殊用途模型是通过提示工程、参数编辑抑或控制组件等方法注入知识,要求采取相应的技术标准或达到特定的性能指标。第二,在算力供给方面,应通过建立公共算力资源供给制度、推动公共算力资源平台建设与利用、加强算力科学调度等方式,解决企业尤其是中小型企业在人工智能研发过程中所面临的算力资源不足的问题。统筹算力资源既包括我国北京、上海、广州等地正在建设或已经建设的公共算力资源平台,也包括一些科研机构、大型企业为开发自有人工智能系统而筹集的算力资源。在互惠互利、公平合理的前提下,可以探索算力资源市场化交易,促进公共算力资源、私有算力资源的共享互通,提高算力资源利用效率。第三,在支持算法创新方面,除了鼓励闭源模型的发展外,还要重视开源人工智能生态对人工智能技术创新的驱动作用。开源人工智能以开放式的知识共享机制为核心,不仅能够吸引中小规模研发者参与协作,也有助于大模型的优化完善。可以在立法中明确国家对建设、运营开源开发平台、开源社区的支持与鼓励,也可以探索设立开源人工智能基金,提供专项资金促进开源人工智能生态的繁荣,并可鼓励政府机关先行先试,应用符合要求的开源人工智能。第四,出于激发人工智能创新活力、促进先行先试和控制负外部性的影响,还可以参考经济特区、浦东新区和海南自由贸易港的授权立法模式,在已有国家新一代人工智能试验区基础上作出更进一步的制度安排,选择人工智能发展要素聚集度好、立法能力强、治理水平高的“试验区”设立“人工智能特区”,建立授权立法机制。人工智能特区所在城市人民代表大会及其常务委员会,可以结合特区内人工智能创新发展实践需要,遵循宪法以及法律和行政法规的基本原则,就人工智能研发、提供、使用活动制定法规,在人工智能特区范围内实施。人工智能特区法规应当分别报全国人民代表大会常务委员会和国务院备案;对法律、行政法规的规定作变通规定的,应当说明变通的情况和理由。人工智能特区法规还可以就同一事项,与部门规章或特区所在省、自治区、直辖市的地方性法规、地方政府规章作出不同规定,并优先适用。突出人工智能立法的安全法定位,主要是划定人工智能研发、提供过程中的安全底线,建立人工智能安全评估、审计和应急处置制度,科学区分人工智能全生命周期中各主体的安全义务。例如,就人工智能技术自身的安全风险,在设置负面清单对高风险人工智能实施更严格监管的基础上,还可以参考《个人信息保护法》对大型平台设置制定平台内规则、处置平台内违规行为等特殊义务的做法,要求基础模型研发者对自身研发模型的安全性负更高的注意义务,并应专门采取合规措施保障基础模型安全。此外,为落实一般主体的安全防范要求,也可以根据主体从事活动的不同,区分人工智能研发者、提供者,有针对性地设置不同义务。人工智能研发者应更加注重所研发的人工智能系统在技术上的安全风险,而人工智能提供者应侧重于及时向研发者和监管部门反馈人工智能运行过程中出现的问题,关注对使用者可能造成的影响。当然,人工智能立法需要防范的安全风险不止技术自身的潜在风险,也包括人工智能技术发展应用过程中,外部因素干扰所带来的有害信息倒灌、产业链供应链受影响等安全风险。对此,人工智能立法应与《反外国制裁法》等法律法规形成制度衔接,设计对其他国家和地区不合理措施予以必要反制的法律依据。上述“四层二分”框架旨在建构我国人工智能法律治理的基础性制度架构。认知框架的主要作用是化约复杂性,此种多层分支式框架不仅契合人工智能的发展历程和技术原理,也最大限度地减少了不同分类维度交叠引起的认知混乱和治理措施组合失配。逐层加入的“治理增量”追求风险增量与治理增量的阶段性适配,有助于提升法律治理不同技术路线人工智能应用的规制精度及合比例性。诚然,人工智能的技术和应用无疑还存在若干具备法治价值的分类,如人工智能模型总体上包括开源模型和闭源模型,生成式人工智能模型中也包括通用模型和专用模型,公用模型中还需要划分出关键模型和普通模型。其中,尤受瞩目的是关键基础模型的判别标准。当前欧美部分制度实践以训练时消耗的浮点数计算量或运行时需要的算力为判别标准,但我国盲目移植这一标准可能会产生“刻舟求剑”的后果,因为随着人工智能技术的发展,实现与当前大模型同等能力的模型所需算力可能继续上升还是转而下降尚未可知。人工智能立法必须将“技术飞速发展给调整对象带来的不确定性”作为重要考量因素。因此,尽管对于具有广泛用途和影响力的关键基础模型有作为新型数字基础设施加以特别保护的必要,也可能存在对此类可能引致重大风险的模型施加特殊规制的需要,但在相关判别标准和治理机制尚充满不确定性的情况下,此层划分尚需更多理论与实践探索,以求形成更完备的规则体系。人工智能法治面临的难题,在于强烈的不确定性和高度复杂的生态制约了规则精度的上限,而在规则精度有限的前提下,框架结构上的重叠、缺漏与错位很难通过特殊规则的精准设计填补。“四层二分”框架不仅尽可能避免了各种复合型多维框架结构的缺陷,也有利于未来继续划分必要的层次和分支,还便于未来形成的各种人工智能治理机制顺利嵌入人工智能法制,避免新机制嵌入复合型框架中存在的跨维度定位难题。通过逻辑上无重叠而不遗漏的二分法,结合人工智能自身的技术原理和特点,采取多层二分支式的治理框架,或将是我国人工智能法治建设的有益抉择。