专栏名称: 法律适用
最高人民法院国家法官学院《法律适用》
目录
相关文章推荐
文明海南  ·  巴黎现场织黎锦?海南秀出“东方时尚密码” ·  19 小时前  
文明海南  ·  巴黎现场织黎锦?海南秀出“东方时尚密码” ·  19 小时前  
古典文献学微刊  ·  新书 | 《柳诒徵1927年日记》出版 ·  2 天前  
古典文献学微刊  ·  集刊 | ... ·  3 天前  
甘肃省文化和旅游厅  ·  勤耕砚田 传承启新 ·  2 天前  
甘肃省文化和旅游厅  ·  勤耕砚田 传承启新 ·  2 天前  
郓城融媒体中心  ·  【倡树文明新风】郓城县南赵楼镇:传统舞台上演 ... ·  2 天前  
郓城融媒体中心  ·  【倡树文明新风】郓城县南赵楼镇:传统舞台上演 ... ·  2 天前  
51好读  ›  专栏  ›  法律适用

AI善治学术工作组 续章与新篇:中国人工智能法治研究2024年度观察

法律适用  · 公众号  ·  · 2025-03-07 08:00

正文



编者按

为落实中共中央宣传部、教育部、科技部印发《关于推动学术期刊繁荣发展的意见》精神,顺应媒体融合发展趋势,积极适应移动化、智能化发展方向,《法律适用》推出网络优先出版等新型出版模式。目前,已于“中国知网”上线最新一期《法律适用》知网全部首发文章,并于微信公众平台同步推出,敬请关注!


AI善治学术工作组

AI善治学术工作组,执笔人包括:张凌寒,中国政法大学数据法治研究院教授;杨建军,西北政法大学法治学院教授;文禹衡,湘潭大学法学学部副教授;程莹,中国信通院政策与经济研究所主任工程师;郑志峰,西南政法大学民商法学院教授;赵精武,北京航空航天大学法学院副教授;韩旭至,华东政法大学数字法治研究院副院长;徐小奔,中南财经政法大学知识产权研究中心研究员、法学院副教授。
本文系司法部2024年度法治建设与法学理论研究部级科研项目重点课题“人工智能时代网络空间安全风险识别与法律应对”(项目编号:24SFB1011)的阶段性成果。

文章发表于《法律适用》2025年第3期“年度综述”栏目,第146-166页。因文章篇幅较长,为方便电子阅读,已略去原文注释。

2024 年可视为中国人工智能法治研究的新元年,进一步夯实了人工智能法治研究的中国叙事结构和自主知识体系。在研究议题上,呈现出“续章出新篇”的特点。在“续章”方面,决策式人工智能(算法)持久不衰,人工智能生成内容的版权问题重者恒重,智慧司法、自动驾驶、具身智能和元宇宙等人工智能应用场景平分秋色,人工智能法律责任研究仍然侧重民刑。在“新篇”方面,生成式人工智能风险治理堪称学术热点,人工智能数据语料库建设成为焦点,人工智能法治进入研究元年。


关键词

中国法学自主知识体系 生成式人工智能 人工智能训练 人工智能立法 决策式人工智能 人工智能生成内容





引言:人工智能法治研究的新元年

在人工智能重塑全球治理格局的过程中,构建中国人工智能自主知识体系是不可回避的重大命题。我国法学界一开始就有构建中国人工智能自主知识体系的自觉,逐渐摆脱西方法学范式移植和法律路径依赖,注重立足本土法治资源和实践问题,在传统法学与现代科技的张力中寻找人工智能治理的创新突破口,形成了“以人为本—AI善治”的价值坐标。从知识生产维度来看,2017—2023年人工智能法治研究所凝聚的智识,已经相继体现在2019年的《新一代人工智能治理原则》和2023年的《全球人工智能治理倡议》之中,形成了人工智能法治的中国叙事和东方智慧。

2017年兴起的人工智能法治研究热潮,以高被引文章《人工智能时代的制度安排与法律规制》为标志,可谓之“元年”。2024年,人工智能法治研究进入了“新元年”,这意味着人工智能法治研究已经从“前沿热点”成为不可忽视的主流学术讨论主题。具体体现在以下两个方面:第一,从CLSCI期刊文献数量和增幅上看,2024年人工智能法治研究文献总量达到2017—2023年文献总量的33.35%,2024年人工智能法治研究发文量较2023年增加168篇,环比增长47.86%,增幅创历史新高;第二,在2024年CLSCI期刊文献中,人工智能法治研究成果也取得了历史性突破,519篇文献中的CLSCI期刊文献量达136篇(占比26.20%),首次突破三位数,较2023年增加65篇,环比增长91.55%。(见图1)





一、人工智能法治研究的指导思想

当今世界百年未有之大变局加速演进,全球创新版图和经济结构经历深刻调整。人工智能已经成为国际激烈竞争的新焦点和各方抢占的制高点,世界主要发达国家纷纷加强人工智能谋划部署,力图在新一轮国际科技竞争中掌握主动权。目前,中国、欧盟、美国等均将人工智能立法提上议事日程。我国第十三届、第十四届全国人大常委会立法规划将人工智能立法列入其中,国务院2023年、2024年也连续两年将人工智能法草案列入年度立法计划。纵观人类社会的发展历程,每一次重大技术革命,都会带来新的治理难题,给传统法律框架带来挑战,但也预示着国家治理的机遇和法治的进步。

人工智能是我国推进社会高质量发展的重要发力点。习近平总书记强调,“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源”。《中共中央关于进一步全面深化改革 推进中国式现代化的决定》(以下简称《决定》)指出,要“完善推动新一代信息技术、人工智能、航空航天、新能源、新材料、高端装备、生物医药、量子科技等战略性产业发展政策和治理体系,引导新兴产业健康有序发展”。2024年《政府工作报告》首次提出了“人工智能+”行动,进一步明确了人工智能在国家发展战略中的重要地位。《决定》还强调,要“加快形成同新质生产力更相适应的生产关系,促进各类先进生产要素向发展新质生产力集聚”。人工智能作为引领未来的战略性新兴技术,已经成为发展新质生产力、推动科技革命和产业升级的核心引擎,同时新质生产力也成为推动新发展阶段经济增长的新动能。

高水平安全也是我国推进人工智能技术产业发展的重要指导思想。《决定》明确要求,“完善生成式人工智能发展和管理机制”“加强网络空间法治建设,健全网络生态治理长效机制”“加强网络安全体制建设,建立人工智能安全监管制度”,提出了加强人工智能法治的改革任务。近年来,我国陆续出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,在全球范围内率先开展人工智能领域的规范制定工作,发布《新一代人工智能伦理规范》《人工智能安全治理框架》,积极进行制度探索。2025年1月12日至13日,中央政法工作会议要求,善于通过科学立法解决新问题,针对重点领域、新兴领域、涉外领域,司法部要主动研究提出立法建议。比如要研究无人驾驶、低空经济、人工智能、虚拟货币、数据权属等新问题。

我国也积极参与全球人工智能治理合作,提出中国主张,作出中国贡献。2024年7月1日,第78届联合国大会以协商一致方式通过了我国提出的加强人工智能能力建设国际合作决议,140多个国家参加决议联署。这是全球首个聚焦人工智能能力建设的共识性文件,充分彰显我国对人工智能发展和治理的负责任态度和重要引领作用。三天后,2024世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》,提出要促进人工智能发展,维护人工智能安全,构建人工智能治理体系,加强社会参与和提升公众素养,提升生活品质与社会福祉。该宣言为全球人工智能的治理范式和治理路径提供了新思路,得到各界积极响应。我国遵循科技创新发展的规律,坚持发展与治理、创新与安全并重,在联合国框架内切实推动人工智能治理的国际合作,为全球人工智能发展和治理作出中国贡献。

综上,中国人工智能法治形成了以“发展”与“治理”为支点的自主知识体系。该自主知识体系有助于促进人工智能产业的健康发展和增进社会福祉,为中国在全球科技竞争中赢得战略主动。欧美从互联网时代积累形成的“技术先发优势”,已经在人工智能时代被我国迎头赶上。当前,欧美等国家正以前所未有的速度加速推进人工智能领域的立法进程,力图通过“率先”立法来确立并巩固其在该领域的主导地位。面对这一发展趋势,我国要应势而为,积极推动人工智能立法,构筑参与人工智能全球治理的前提和基础。人工智能立法也离不开自主知识体系的支撑,亟待学界进一步凝聚共识、沉淀夯实、丰富发展中国人工智能自主知识体系。2024年的人工智能法治研究成果正继续为中国乃至全球的人工智能法治秩序体系建设进一步夯实和深化知识基础和理论储备。




二、生成式人工智能风险治理堪称学术热点

生成式人工智能的法治研究成果在2024年呈现爆发式增长,占据本年度人工智能法治研究成果总量的22.54%,倍增于2023年生成式人工智能论文成果总量。面对生成式人工智能对社会现实和社会意识的颠覆性影响,各领域学者从不同角度提出实践法治问题,试图建构行之有效的分析框架。研究成果集中在五个主要领域,即生成式人工智能的风险治理、版权因应、侵权归责、刑事规制和个人信息保护。其中,风险治理议题热度最高,可以归纳为制度沿用、风险规制、治理转型,折射了高自主性智能科技何以治理的现实隐忧。

(一)制度沿用:致力于适用现有法律规则

《生成式人工智能服务管理暂行办法》作为全球第一部专门规制生成式人工智能的法律文本,引起了广泛关注。但其性质为部门规章,主要聚焦信息内容安全问题,因此其私法上的地位、义务和责任仍有待研究。多数意见认为,该办法并未从私法上明确生成式人工智能服务提供者的法律性质,应明确服务提供者为侵权法上的特殊责任主体,规定专门的免责机制,有条件地免除其赔偿损失责任。不过,也有学者主张生成式人工智能侵权的加害人具有“不确定性和群体性”,侵权法“一对一的主体模式”适用空间有限,可将侵权责任归属于“人—机联合体”,进而施加于人工智能的各参与者。

生成式人工智能服务提供者的注意义务可能来自“危险之先行行为引发的义务”“法令上义务”和“一般防范损害发生之义务”,且可通过概括预见能力判断其注意义务。具体来说,注意义务主要包括语料处理义务、对齐微调义务、内容审查义务和用户管理义务。此外,民法典上的通知规则要求服务提供者负有“避免致害内容再次生成的义务”;民法上的诚实信用原则与经济法上的产品信息披露义务为生成式人工智能生成内容的标识义务提供了“自律”与“他律”的法律依据。

在著作权方面,有研究提出由于著作权侵权领域的接触规则失灵,对接触的证明将转变为对过错的证明。此外,应类型化设置“避风港规则”适用的责任豁免规则,形塑选择性适用著作权合理使用规则的阻却违法事由认定机制。

(二)风险规制:尊重技术特性并立足现实国情

大模型的数据训练和部署应用会引发不同的风险,各自的风险根源在于“训练数据的质量问题和敏感性”和“模型被滥用、模型的负外部性和通用性”。生成式人工智能除了大模型相关风险以外,还存在个人信息与著作权保护风险、内容错误的误导风险,以及算法偏见、失控和滥用风险。此外,ChatGPT-4在运行过程中表现出来的各种内生性缺陷,使其极易发生数据泄露、数据污染、数据侵权等方面的刑事法律风险。

风险规制以全面识别和预防为核心理念,为此需要健全风险识别与评估、预警与救济等全链条治理机制,将生成内容、数据信息、模型算法一并纳入规制,形成三位一体的完整闭环规制策略,以将生成内容的潜在风险降到最低程度。借鉴域外经验,可让行业协会、研究机构等“中间行为者”发挥规制作用,采取“自中而外的规制方法”建立合作型规制空间。不过,在借鉴域外法时需要注意,欧盟集中统一式的风险分级分类方案具有不科学、僵化等问题,对生成式人工智能与大模型的规制也不尽合理。我国应坚持对人工智能风险的场景化规制,将人工智能应用者或其构成产品作为风险规制的对象,而对人工智能系统及其提供者,则主要关注国家安全、重大公共安全规制与其他领域的自我规制。

(三)治理转型:场景治理宏观且尚未形成理念共识

生成式人工智能作为生产工具改变了社会生产生活的形态,引发了超出现行法律规制的新生问题,并导致私人技术资本逐步成为数字空间的真实权力拥有者;“本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护”也带来了技术治理的三重困境。生成式人工智能的法治问题是典型的“科林格里奇困境”,因此从“规制”到“治理”的转型,成为生成式人工智能法治研究的重要方向。例如,大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。

在理念方面,人工智能的法律治理首先要融入“共治”的理念,既要着眼人工智能的社会意义,又要体现广泛的社会性和人的固有价值。还可借鉴“宪法人工智能”的基本理念,构建“动态的内容反馈评估机制”以实现生成内容治理的路径矫正。在不同治理场景中,要克服传统规制理念和手段对治理生成式人工智能存在的路径偏差。例如,“以审慎原则,发展原则、生态原则为核心的规制理念”可以应对生成式人工智能数据污染的治理需求;再如,强化算法歧视治理、明确算法的辅助性地位和实现决策过程的透明化的治理路径有助于防范生成式人工智能辅助行政决策的算法隐患;又如,治理生成式人工智能虚假信息应在不同阶段设置不同的处置主体和处置手段,应尽早介入,实施精准处置,实现有效反制,采取全链条式治理策略。

综上,生成式人工智能风险治理的议题展现百花齐放的态势,通过引入域外经验或借鉴跨学科知识,诞生了多种的新型治理理念、治理原则和治理框架,在治理强度与方法上存在较多分歧。在不同学术观点的精彩碰撞中,学者对本领域研究方向达成了一定的共识,生成式人工智能法治思路初具雏形,在法治轨道上进行技术创新成为治理前提,生成式人工智能的内容生产成为治理关键。风险治理仍是人工智能立法的基础性问题之一,未来有必要围绕风险规制的法治理念、策略、方案和规则等多个层面持续开展精细化研究。相比于人工智能,生成式人工智能并非新事物,人工智能法治研究“旧瓶”,仍可装生成式人工智能“新酒”。接下来的研究应着重厘清生成式人工智能和人工智能在法治底层逻辑上的关系,共性部分可直接援引人工智能法治研究成果,而不应“重复造轮子”,个性部分应展开充分的对话式研究,尽早求取“最大公约数”或形成互补性共识。




三、人工智能训练数据语料库建设成为焦点

在聚焦于人工智能训练数据语料库建设的主题文献中,法学类期刊被引总量最多、出版类单篇被引最高,研究内容主要包括版权保护、数据权利和个人信息保护三大方面。

(一)版权保护的“合理使用”与“版权许可”之争

“合理使用”是解决人工智能训练数据版权保护问题的“多数说”。人工智能训练数据中对版权作品的使用属于“非表达性”或“转换性”使用,构成合理使用,且著作权合理使用应作为数据训练著作权侵权规制路径的最优解。在立法上,应完善合理使用条款。具体路径上,可在著作权法中加入“为人工智能数据训练使用他人已经发表的作品”的合理使用条款;或在《著作权法实施条例》中增设计算机分析的合理使用类型,并通过三步检验法予以限制;或者是建立安全港制度,引入科研和业务改进例外的数据合理使用制度,进一步细化公开数据利用规则。在司法上,明确合法性认定条件。可通过司法判例明确网络数据来源合法性认定条件,协调版权规则确定线下数据使用合理性制度边界,构建开放机制满足公共数据参与语料库建设的需求。

“版权许可”是解决人工智能训练数据版权保护问题的“少数说”。一是法定许可,提出将用户训练算法使用作品的行为纳入法定许可范围,建构包括“法定特殊情形+定价”两部分的生成式人工智能预训练法定许可使用制度,并设立专门的集体管理组织负责著作权许可使用费的收取、转付及维权。二是授权许可,提出建立一套整体协调但内部区隔的模块化授权许可机制,强调大型企业主动建立版权许可机制,以公平、合理、无歧视的方式进行授权声明。此外,还有观点提出基于自发于市场的“作者-内容提供商-人工智能服务商”授权许可模式,引入版权人“选择退出”机制,并适用避风港规则。

(二)创新探索数据权利保护路径

人工智能数据训练行为不必然构成合理使用,数据权益难以被版权法周延保护。为此,可以通过数据产权路径,借助数据许可等拓宽持有者授权渠道,设置经营者和加工者特定义务,兼顾数据效能释放和主体权益保护。具体而言,应在保障训练数据来源者的在先权利基础上,使训练数据处理者享有训练数据持有权、使用权和经营权,与共同处理者分享平行的训练数据权利,并根据法律规定或合同约定负有向训练数据需求者提供训练数据的义务,由此实现训练数据权利的模块化设计。

(三)迈向包容审慎的个人信息保护

在生成式人工智能大模型的训练中,有关个人隐私、个人识别信息、医疗健康、生物信息等的敏感数据不应纳入训练数据,除非在个人同意的情况下经过去标识化和去敏感性处理。应在此基础上,完善个人信息保护法规制,具体措施包括拓展个人信息处理的合法性基础、改造告知同意机制、实施个人信息保护影响评估等。此外,还要强调以行政监管为主导的保护机制,侧重服务提供者的技术保护等义务。

综上,人工智能训练数据语料库建设,需要在合理平衡好各方利益的基础上才能实现“可持续”。毋庸置疑,个人信息应当受到保护,但在数据利益上,到底是通过版权保护,还是数据权利保护,学界众说纷纭,有待达成共识。在未来,人工智能训练数据语料库建设需要从以下三方面深入拓展。一是个人信息保护规则的细化,如个人信息分类分级保护、个人信息保护的具体评估标准等。二是形成利益保护共识,需确定是版权保护、数据权利保护的单一路径,还是二者兼顾的多元路径。三是完善配套规则,如人工智能训练数据的版权信息披露范围、自由度、标准、例外等,人工智能训练数据中的数据安全保护分类分级、监管制度等,以及包括伦理嵌入、技术保护能力提高等方面在内的人工智能训练数据的协同治理。




四、人工智能立法进入研究元年

由于立法议题的特殊性,相关研究成果主要集中在法学领域。现有研究内容涵盖人工智能立法的价值基础、基本路径、体系化构建和伦理治理模式,以及人工智能在交通、教育、产品责任等具体应用场景下的立法探讨。不过,我国人工智能立法的定位和目标、模式和路径、框架和支撑等基础性问题亟待解决。
(一)立法的定位和目标
第一,立法定位。我国在实践中快速形成了“科技和产业发展”和“信息内容管理”两种不同的人工智能立法定位,我国应将人工智能纳入前沿科技和新质生产力范畴进行定位,以推动科技创新和产业创新深度融合。或者说,我国需要在立法层面实现从“技术安全法”到“促进技术创新”的重心转变,建构基于综合治理范式的“人工智能技术促进法”。不过,也有学者主张“安全”元素,认为人工智能立法应当包含促进法、安全法与程序法的三重定位,以及认为人工智能法应当以发展与安全并重为指导思想。总体上讲,人工智能法应当定位于基本法并充分发挥其高阶引领作用,具体应采取“立总则、廓主线、留接口、适时灵活推进”的“总则式”进路。
第二,立法目标。人工智能已经成为当前国际技术竞争与规则竞争的关键领域。围绕发展应用之目标,一是须知“不发展是最大的不安全”,我国应当高擎发展旗帜,系统部署促进人工智能技术产业发展的专门制度,充分促进人工智能技术在生产生活中的应用;二是通过可信人工智能的理论检视和制度建构,破除人工智能发展应用之最大障碍,从根本上推动人工智能技术的应用和发展。围绕技术促进之目标,我国应当避免单一治理范式的局限,构建“风险预防—市场激励—创新资源保障”相结合的综合治理框架。此外,人工智能的有效治理是法律、伦理、市场和技术标准等多种工具融合运用的结果,法律并非唯一有效的工具,应当推动科技伦理的法治化。
该问题上的分歧在于分析框架和论证逻辑。部分学者立足于我国人工智能产业“领先的追赶者”的独特地位,推衍出发展为先的立法目标和包容审慎的治理原则。部分学者则以我国人工智能治理实践中快速形成的两种立法定位为逻辑起点,深入分析二者优劣,并结合技术特性及治理趋势,深刻论证我国人工智能法的合理定位。还有学者主张明确可信人工智能是我国人工智能立法的重要方向,可信人工智能法律建构之关键在于遵循以人为本、人类主导、技术中立等外在准则和透明、安全、可问责等内在准则,捍卫现代法治的传统和宪法确认的公民的基本权利,维护人类福祉。应当说,学者之间已经形成较大共识,普遍承认人工智能法具有风险治理(安全)和技术促进(发展)的双重属性,并认为在当下科技变革和国际竞争之特殊时代,我国应将人工智能法主要定位为“技术促进和产业发展法”,以法律制度破除发展桎梏、推动技术进步。
(二)立法的模式和路径
关于立法模式和路径,学者观点存在明显分歧。一派赞同集中统一式立法模式,主张为促进人工智能高质量发展与高水平安全单独立法。整体策略上,由全国人大常委会以人工智能为主题的综合性法律为主进行统一立法,根据人工智能不同应用场景和生命周期分别开展配套法规立法。在具体路径上,主要有三种不同主张。其一,注重务实。借由灵活的立法形式,应对立法与科技发展之间的时效差异。也就是说,可以考虑通过灵活的载体形式,以小快灵立法、全面性立法乃至法典化等形式适时、稳步推进。其二,优化层次。借由分层治理的思路,应对技术更新、产业迭代带来的问题。具体而言,“人工智能法”应当是我国人工智能领域的基本法律,旨在定基调、明方向,仅对立法目的、调整对象、基本原则、重要制度以及一般规则等基础性问题予以明确,具体的细节制度应在时机成熟时、实践检验下通过行政法规、部门规章等规范性文件以及国家标准等确定。其三,引入“系统—控制论”。在法律体系化方法中嵌入“系统—控制论”原理来整合领域立法素材,并以人工智能“研发—生产—服务—使用”节点为横轴,以“具体风险控制”和“抽象权利保护”两种控制模式为纵轴,构筑人工智能立法制度谱系的基本线索。
另一派则赞同分散场景式立法模式,主张对人工智能风险实施场景化规制。以解决具体问题为目标进行分散式立法,保持灵活性、小步快跑,可由全国人大常委会就人工智能安全与发展涉及的重大原则问题先制定一份法律问题的决定,明确基本原则与方向,然后通过不同部门法的“立改废释”分别推进。同时,将人工智能风险还原到具体的行业、整体产品与已有的法律关系中,利用已有的行业和领域性风险监管以及现有的法律关系对其进行监管。例如,人工智能伦理审查制度宜在科技伦理治理框架内单行立法。
学者们在人工智能立法路径上达成了部分共识,即强调在当下阶段保持立法的灵活性,先以“总则”“原则”或“框架”等形式明定方向、凝聚共识,为人工智能发展提供必要的制度保障,同时防止超前立法阻碍技术进步。
(三)立法的框架和支撑
在治理框架方面,我国人工智能立法应当厘清一个基本误区,即人工智能不能被假定为生成式人工智能,人工智能的技术路线与应用方式十分庞杂,应当对其进行适当区分,采取分层多支式的治理框架。人工智能的开发者与开发活动、提供者与提供活动、使用者与使用活动、监管者与监管活动,构成了人工智能法调整对象的主客坐标,建议关注人工智能法对外的空间效力边界,以及对内的与人工智能要素法和人工智能应用法的协调。在制度支撑方面,我国人工智能立法应当高度重视数据的基础性地位,应当从建立完善的数据伦理体系、推动数据技术的负责任创新、迈向数据法律的整体性治理三个层次推进全面、系统的数据治理体系建设。此外,还应当融入伦理治理元素,通过树立养成主义而非决断主义的理念,将科技伦理框架有序转换为法律治理方案。






请到「今天看啥」查看全文