专栏名称: 清华大学智能法治研究院
发布清华大学法学院、清华大学智能法治研究院在“计算法学”(Computational Law)前沿领域的活动信息与研究成果。
目录
相关文章推荐
三节课  ·  今天,怎么做到无痛上班? ·  昨天  
生态梦网  ·  紧急提醒!滨海人明后天冷到哭! ·  昨天  
天津市应急管理局  ·  津城二十四节气|今晚22:10,天津将迎来—— ·  3 天前  
人人都是产品经理  ·  即时零售的三大天坑:前置仓、低价、24小时 ·  4 天前  
51好读  ›  专栏  ›  清华大学智能法治研究院

论坛综述 | 论坛三:人工智能立法:国际经验与中国立场

清华大学智能法治研究院  · 公众号  ·  · 2024-12-08 20:51

正文



第七届计算法学国际会议的论坛三“人工智能立法:国际经验与中国立场”于2024年11月30日上午顺利举行。




上半场



山东大学法学院王芳教授 主持论坛上半场。



中国社科院法学研究所周汉华研究员 作题为 《我国人工智能法应该做加法还是减法》 的报告。他指出,党的十八届四中全会将全面依法治国总目标确立为“建设中国特色社会主义法治体系,建设社会主义法治国家”,实现从法律体系建设向法治体系建设的跨越。在新的阶段,立法只是其中一个环节,还要进一步统筹好立、改、废、释、纂的关系,既要做“加法”(立新法)又要做“减法”(改、废、释、纂,协调新法和旧法的关系)。从近几年的立法规划来看,会发现修改法律的数量已经远超过新法的数量。在该背景下选择人工智能法治建设路径,也要思考人工智能应当做“加法”还是“减法”?全国人大常委会于2023年9月发布《第十四届全国人大常委会立法规划》,为在人工智能领域做“减法”提供了可能性。从法治体系协调性、可执行性上看,“加法”注重立法环节,随着法律文本数量增加,也一定程度提高守法难度;“减法”则注重实施环节,强调在各个法律之间形成合力,使规则具有可执行性。从法治理念来看,“加法”代表由政府主导创新过程;“减法”代表由市场主体主导创新。从治理体系来看,“加法”属于自上而下的决策体制;“减法”属于自下而上的共识形成机制。


在我国对人工智能问题规制,做“加法”的激励要大于做“减法”。即便如此,基于现有经验,人工智能产业之所以能取得现有的成绩,本质上是简政放权、市场主体积极性被调动和激发社会创造力的结果。其他行业为推动高质量发展,增强市场主体信息,也都普遍采取“减法”思路。因此人工智能领域也要做“减法”。我国人工智能在预训练阶段和投入应用阶段所面临的法律障碍,横跨不同部门法,也需要通过对现行法进行“改废释”来解决。综上所述,要积极推动“减规定、减机构、减编制”,释放各方活力,促进人工智能产业和数字经济发展。



华东政法大学马长山教授 作题为 《面向“三维世界”的数字法学》 的报告。他首先将法学的发展规律与世界所处的发展阶段关联起来,指出从传统法学到数字法学的变化对应从“一维世界”到“三维世界”的演进过程。信息技术革命催生出“三维世界”,与“一维世界”“二维世界”交织在一起,形成更为复杂的社会关系。因此数字法学遇到的问题,不能用现代法学逻辑去推演。其次,他阐述了数字法学三个主要的分析范畴。第一个分析范畴是数字权利。数字权利的生成基于“数字人类”的主体性再造、生活中的数字逻辑及数字契约的共享赋权,具有“流动性”“场景性”“穿透性”“交互性”等特点,包括基本数字权利、具体数字权利和场景化的数字权利等类型。第二个分析范畴是数字权力。随着数字平台出现,传统的“二元对立”结构被突破,形成平台主体、供给主体和需求主体三方关系,并衍生出新型数字权力。第三个分析范畴是数字正义。现代社会经历从传统分配到以数据信息为中心、计算为准绳的分配方式的转变。


在如何构建我国自主知识体系问题上,他强调人工智能立法应当按照“三维世界”的逻辑设计相关规则,从数字权利、数字权力的属性方式、运行规律及相互关系出发,阐释“三维世界”下的权力制约、权力保障和秩序运行机制,全方位推进数字法治理念、数字法律规范、数字法治实施、数字法治监督和数字法治保障建设和发展,为数字法治建设的“中国图景”提供理论方案。



中国政法大学张凌寒教授 作题为 《标识制度与AIGC安全治理》 的报告。她指出生成式人工智能改变了人们的生产方式,也将引发包括虚假内容、深度伪造、版权侵犯在内的一系列问题。在一个面向300多位人工智能技术人员和治理专家开展的调查研究发现,虚假信息风险最受多数人关注。2023年7月,包括亚马逊、Anththropic、谷歌在内的七家科技巨头公司针对如何更好地保护用户,决定采取一系列保护措施,包括进行安全测试,采用新的水印系统等。从各国立法进程及国际组织行动也可以看出,构建内容标识制度已经成为国际共识。我国也在积极构建内容标识制度,作为对AI监管框架的重要补充。《人工智能生成合成内容标识办法》《网络安全技术 人工智能生成合成内容标识方法》等文件出台,表明标识制度从构想走入实践。其中,《办法》提出根据内容形式定义目录标识场景,区分显式标识和隐藏式标识。“显式标识”是指在人工智能生成合成内容或交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户直接感知到的标识。“隐藏标识”是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。


围绕内容标识,还会产生两个问题:一是能否通过标识追溯标识的生成过程,厘清各方责任;二是能否基于标识为与生成合成内容有关的权利提供必要的技术支撑。我国也要构建起多模态标识与全周期监管制度,为内容生产者、传播者提供可行的标识方法,引导人工智能产业规范化发展。



欧盟《人工智能法》的主要作者和设计师 加布里埃尔·马志尼(Gabriele Mazzini)博士 作题为 《人工智能法:一个亲历者的视角》(EU AI Act: A firsthand perspective) 的报告。他首先介绍了欧盟《人工智能法》的组织架构和立法过程。在制定《人工智能法》时,欧洲议会和欧盟理事会必须就法律文本内容达成一致。在欧盟委员会提交立法草案后,2022年12月,欧盟理事会针对草案内容提出意见;2023年6月,欧洲议会针对草案内容提出意见。之后这些机构进入到对草案的谈判过程。其中,欧盟委员会扮演顾问的角色,也在行动各个方面为其他机构提供深入指导。接下来,他指出《人工智能法》的宗旨是改善欧盟内部市场运作、提高人工智能服务合规性,为人工智能系统在欧盟的开发及利用制定统一的治理框架。与此同时,他还认为《人工智能法》积极回应了那些因人工智能引起的顾虑。他重点讨论了《人工智能法》确立的风险分级治理模式。《人工智能法》将风险分为不可接受风险、高风险、透明度风险及最低限度的风险。最后,他提到模型提供者应当承担的义务及实施《人工智能法》的具体步骤,并展望了欧盟委员会在数字服务方面的立法进程。



中国海洋大学章凯业副教授 作题为 《AI训练数据的大规模著作权侵权风险的中国方案》 的报告。他认为伴随着人工智能训练数据的需要,著作权法是否允许机器人进行学习成为一个愈发重要的议题。从历史维度看,著作权法中的每一项权利内容及其例外规定,都旨在对应和协调各个产业的商业模式。当技术变革导致新的利用作品方式出现,就会在新旧技术所代表的产业之间形成利益博弈,博弈的结果是形成一个新的权利。在经历不同产业的博弈后,其结果就是使著作权法成为一个包含诸多“权利/例外”结构的高度碎片化和复杂性的法律。


按照上述逻辑,人工智能作为新的技术,对应一个新兴产业的出现,也将带来新的规制问题。在大规模侵权问题上,人工智能技术与数字技术一样,都依托复制依赖型技术,但是也有其特殊性。机器学习系统复制作品,并非为了获取其受法律保护的部分,而是为了获取作品中不受著作权保护的部分,也就是作品中的想法、事实和语言结构。与此同时,在作品被复制后,人工智能并不意在向公众传递作品的表达价值,而是创造新的知识与表达。根据美国法上已有判例,可以看出法院采取“宽进宽出”原则,首先认定训练数据行为构成可诉的复制行为,随后在合理使用的情况下可以免责,并在一定程度上倒逼分散的著作权人和人工智能企业进行谈判。


最后,域外经验对我国的启示是建立“安全阀”制度,包括前门规则和后门规则。前门规则指安全港规则,具有稳定性、可预见性等优势;后门规则指合理使用豁免规则,由于其不可预测性,维护成本高昂,而被少数参与者使用,也能反向促进人工智能市场集中。



国际关系学院副院长许可教授 对前述报告进行了评议。他认为在当今时代背景下考虑人工智能立法问题,具有重要意义。党的二十大报告指出,要统筹好发展和安全,既要了解高水平安全,也要助力高质量发展,而人工智能领域恰好体现这两个维度。他从三个方面分享了自己的看法:一是整体思路上,要注重人工智能发展的安全问题,在有些地方应该做“减法”,而在有些领域则要做“加法”。这个“加法”主要体现在公法领域,法律概念及其边界应当清晰,这样才能对公权力行使进行有序规制;二是在参与主体上,应当发挥全过程人民民主在人工智能立法进程中的优势,让人民群众参与到问题讨论中,而不限于“精英”层面;并建立起一个有效的监督制约机制;三是充分发挥已有的法律规范的涵摄和统领作用,延续制度的生命力,从现有体系中寻找新的机遇。






下半场



《中国法律评论》副编审万颖 主持论坛下半场。



东南大学法学院王禄生教授 作题为 《预测性司法的历史生成与全球图景》 的报告。王禄生教授聚焦于预测性司法的历史发展沿革、应用推广路径及其在中国所面临的实践挑战等问题,回顾了预测性司法的起源,分析了大数据预测犯罪的概念缘起,探讨了这一技术理念如何从科幻走向现实。预测性司法是指利用预测性算法挖掘刑事数据关联,自动预测刑事诉讼中的风险事项,如初犯可能性、人身危险性和再犯风险性,以指导司法实务部门作出更精准决策的法律技术。尽管预测性司法是一个相对新兴的概念词汇,但刑事司法领域对“预测”的探索却由来已久,从20世纪80年代开始,刑事司法预测便从个案式预测转向精算预测,再到2010年代大数据和人工智能的迅猛发展,刑事司法预测的应用广度和深度达到了新高度。


在全球范围内,预测性司法的实践引发了广泛争议。一方面,有观点认为预测性司法是刑事司法决策领域的重大变革,代表了未来刑事司法的发展方向;另一方面,也有批评声音指出,预测性司法的技术框架并不可靠,可能侵犯重要的社会价值。王禄生教授指出,中国在全球预测性司法实践中应更加积极地贡献中国经验,推广中国规范,同时强调中国在推动全球大数据和人工智能司法工作发展进程的重要作用。


王禄生教授指出,预测性司法可能会给刑事司法工作带来诸多深刻变化,包括改变刑事司法与社会的连接方式,推动司法预测从回溯性反思向前瞻性预测转变,促进人力决策向算法决策的转型。这些变化可能会与刑事司法的原有内生价值产生冲突,如预测性司法的有罪推定倾向、算法预测的不可解释性及其对刑事司法程序透明度和参与性的负面影响。他建议,中国的预测性司法治理应在良法善治的框架下进行协同治理,中国的预测性司法路径探索应符合我国国情,充分发挥后来者优势,积极寻求适合中国发展特色的治理路径。



中国人民大学法学院张吉豫副教授 作题为 《人工智能治理中的信息能力建设》 的报告,主要探讨了人工智能治理中的信息能力建设问题。她指出,随着人工智能技术的迅猛发展,人工智能治理需求日益增长,其中包括人工智能治理理念的确立需求和人工智能治理机制的构建需求。纵观技术创新与技术治理的发展历史,在技术发展的初期,技术的社会化应用往往存在较多能力建设的缺口,而在现今的人工智能领域也不例外,人工智能既有广阔的应用前景,又同时伴随着诸多潜在风险。当前人工智能治理过程所面临的主要矛盾是社会对安全发展的迫切需求与治理能力之间的缺口矛盾。因此,治理的目标应首要聚焦于能力缺口的积极填补,以期形成适应人工智能时代发展特点的人工智能社会运行治理能力。此外,人工智能治理中的过程不确定性和信息不充分性也是主要问题点,特别是在风险控制、因果关系、收益损害以及成本代价等方面体现得尤为突出。


中国在现代科技领域的发展起步较晚,在构建传统技术治理规则框架的过程中,与具有成熟治理经验的发达国家相比存在一定差距。然而,由于人工智能技术发展迅猛,世界各国都普遍缺乏成熟的治理经验,这就要求中国需加速建立独到的人工智能治理能力,以形成更为行之有效的治理方法,引领全球人工治理的方向。此外,出于人工智能技术本身的特殊性,深度学习模型的复杂性和动态性,人工智能应用的广泛性和社会性,人工智能治理过程中信息获取难度也进一步增加。最后,她认为应鼓励治理过程中的信息交流与共享,建立多元化群体参与的治理机制,加强社会宣传,积极推动行业内的理论和实践交流。她指出,通过这些举措,可以促进必要信息的流动和共享,提升协同治理能力,以有效应对人工智能治理中的诸多挑战。



奇安信科技集团股份有限公司首席法律顾问马兰 的报告主题为 《人工智能安全的探索和实践》 。她深入分析了当下人工智能安全领域的现实挑战与实践问题,强调了人工智能发展中合规与安全的核心地位。







请到「今天看啥」查看全文


推荐文章
三节课  ·  今天,怎么做到无痛上班?
昨天
天津市应急管理局  ·  津城二十四节气|今晚22:10,天津将迎来——
3 天前
人人都是产品经理  ·  即时零售的三大天坑:前置仓、低价、24小时
4 天前
总裁俱乐部  ·  永远,不要看不起任何人!
8 年前
遇见漫画  ·  《毒家新闻》我的心变黑了吗?
7 年前
午夜漫画站  ·  内涵漫画:危险地方
7 年前