中国社科院法学研究所周汉华研究员
作题为
《我国人工智能法应该做加法还是减法》
的报告。他指出,党的十八届四中全会将全面依法治国总目标确立为“建设中国特色社会主义法治体系,建设社会主义法治国家”,实现从法律体系建设向法治体系建设的跨越。在新的阶段,立法只是其中一个环节,还要进一步统筹好立、改、废、释、纂的关系,既要做“加法”(立新法)又要做“减法”(改、废、释、纂,协调新法和旧法的关系)。从近几年的立法规划来看,会发现修改法律的数量已经远超过新法的数量。在该背景下选择人工智能法治建设路径,也要思考人工智能应当做“加法”还是“减法”?全国人大常委会于2023年9月发布《第十四届全国人大常委会立法规划》,为在人工智能领域做“减法”提供了可能性。从法治体系协调性、可执行性上看,“加法”注重立法环节,随着法律文本数量增加,也一定程度提高守法难度;“减法”则注重实施环节,强调在各个法律之间形成合力,使规则具有可执行性。从法治理念来看,“加法”代表由政府主导创新过程;“减法”代表由市场主体主导创新。从治理体系来看,“加法”属于自上而下的决策体制;“减法”属于自下而上的共识形成机制。
在我国对人工智能问题规制,做“加法”的激励要大于做“减法”。即便如此,基于现有经验,人工智能产业之所以能取得现有的成绩,本质上是简政放权、市场主体积极性被调动和激发社会创造力的结果。其他行业为推动高质量发展,增强市场主体信息,也都普遍采取“减法”思路。因此人工智能领域也要做“减法”。我国人工智能在预训练阶段和投入应用阶段所面临的法律障碍,横跨不同部门法,也需要通过对现行法进行“改废释”来解决。综上所述,要积极推动“减规定、减机构、减编制”,释放各方活力,促进人工智能产业和数字经济发展。
华东政法大学马长山教授
作题为
《面向“三维世界”的数字法学》
的报告。他首先将法学的发展规律与世界所处的发展阶段关联起来,指出从传统法学到数字法学的变化对应从“一维世界”到“三维世界”的演进过程。信息技术革命催生出“三维世界”,与“一维世界”“二维世界”交织在一起,形成更为复杂的社会关系。因此数字法学遇到的问题,不能用现代法学逻辑去推演。其次,他阐述了数字法学三个主要的分析范畴。第一个分析范畴是数字权利。数字权利的生成基于“数字人类”的主体性再造、生活中的数字逻辑及数字契约的共享赋权,具有“流动性”“场景性”“穿透性”“交互性”等特点,包括基本数字权利、具体数字权利和场景化的数字权利等类型。第二个分析范畴是数字权力。随着数字平台出现,传统的“二元对立”结构被突破,形成平台主体、供给主体和需求主体三方关系,并衍生出新型数字权力。第三个分析范畴是数字正义。现代社会经历从传统分配到以数据信息为中心、计算为准绳的分配方式的转变。
在如何构建我国自主知识体系问题上,他强调人工智能立法应当按照“三维世界”的逻辑设计相关规则,从数字权利、数字权力的属性方式、运行规律及相互关系出发,阐释“三维世界”下的权力制约、权力保障和秩序运行机制,全方位推进数字法治理念、数字法律规范、数字法治实施、数字法治监督和数字法治保障建设和发展,为数字法治建设的“中国图景”提供理论方案。
中国政法大学张凌寒教授
作题为
《标识制度与AIGC安全治理》
的报告。她指出生成式人工智能改变了人们的生产方式,也将引发包括虚假内容、深度伪造、版权侵犯在内的一系列问题。在一个面向300多位人工智能技术人员和治理专家开展的调查研究发现,虚假信息风险最受多数人关注。2023年7月,包括亚马逊、Anththropic、谷歌在内的七家科技巨头公司针对如何更好地保护用户,决定采取一系列保护措施,包括进行安全测试,采用新的水印系统等。从各国立法进程及国际组织行动也可以看出,构建内容标识制度已经成为国际共识。我国也在积极构建内容标识制度,作为对AI监管框架的重要补充。《人工智能生成合成内容标识办法》《网络安全技术 人工智能生成合成内容标识方法》等文件出台,表明标识制度从构想走入实践。其中,《办法》提出根据内容形式定义目录标识场景,区分显式标识和隐藏式标识。“显式标识”是指在人工智能生成合成内容或交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户直接感知到的标识。“隐藏标识”是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
围绕内容标识,还会产生两个问题:一是能否通过标识追溯标识的生成过程,厘清各方责任;二是能否基于标识为与生成合成内容有关的权利提供必要的技术支撑。我国也要构建起多模态标识与全周期监管制度,为内容生产者、传播者提供可行的标识方法,引导人工智能产业规范化发展。
欧盟《人工智能法》的主要作者和设计师
,
加布里埃尔·马志尼(Gabriele Mazzini)博士
作题为
《人工智能法:一个亲历者的视角》(EU AI Act: A firsthand perspective)
的报告。他首先介绍了欧盟《人工智能法》的组织架构和立法过程。在制定《人工智能法》时,欧洲议会和欧盟理事会必须就法律文本内容达成一致。在欧盟委员会提交立法草案后,2022年12月,欧盟理事会针对草案内容提出意见;2023年6月,欧洲议会针对草案内容提出意见。之后这些机构进入到对草案的谈判过程。其中,欧盟委员会扮演顾问的角色,也在行动各个方面为其他机构提供深入指导。接下来,他指出《人工智能法》的宗旨是改善欧盟内部市场运作、提高人工智能服务合规性,为人工智能系统在欧盟的开发及利用制定统一的治理框架。与此同时,他还认为《人工智能法》积极回应了那些因人工智能引起的顾虑。他重点讨论了《人工智能法》确立的风险分级治理模式。《人工智能法》将风险分为不可接受风险、高风险、透明度风险及最低限度的风险。最后,他提到模型提供者应当承担的义务及实施《人工智能法》的具体步骤,并展望了欧盟委员会在数字服务方面的立法进程。
中国海洋大学章凯业副教授
作题为
《AI训练数据的大规模著作权侵权风险的中国方案》
的报告。他认为伴随着人工智能训练数据的需要,著作权法是否允许机器人进行学习成为一个愈发重要的议题。从历史维度看,著作权法中的每一项权利内容及其例外规定,都旨在对应和协调各个产业的商业模式。当技术变革导致新的利用作品方式出现,就会在新旧技术所代表的产业之间形成利益博弈,博弈的结果是形成一个新的权利。在经历不同产业的博弈后,其结果就是使著作权法成为一个包含诸多“权利/例外”结构的高度碎片化和复杂性的法律。
按照上述逻辑,人工智能作为新的技术,对应一个新兴产业的出现,也将带来新的规制问题。在大规模侵权问题上,人工智能技术与数字技术一样,都依托复制依赖型技术,但是也有其特殊性。机器学习系统复制作品,并非为了获取其受法律保护的部分,而是为了获取作品中不受著作权保护的部分,也就是作品中的想法、事实和语言结构。与此同时,在作品被复制后,人工智能并不意在向公众传递作品的表达价值,而是创造新的知识与表达。根据美国法上已有判例,可以看出法院采取“宽进宽出”原则,首先认定训练数据行为构成可诉的复制行为,随后在合理使用的情况下可以免责,并在一定程度上倒逼分散的著作权人和人工智能企业进行谈判。
最后,域外经验对我国的启示是建立“安全阀”制度,包括前门规则和后门规则。前门规则指安全港规则,具有稳定性、可预见性等优势;后门规则指合理使用豁免规则,由于其不可预测性,维护成本高昂,而被少数参与者使用,也能反向促进人工智能市场集中。
国际关系学院副院长许可教授
对前述报告进行了评议。他认为在当今时代背景下考虑人工智能立法问题,具有重要意义。党的二十大报告指出,要统筹好发展和安全,既要了解高水平安全,也要助力高质量发展,而人工智能领域恰好体现这两个维度。他从三个方面分享了自己的看法:一是整体思路上,要注重人工智能发展的安全问题,在有些地方应该做“减法”,而在有些领域则要做“加法”。这个“加法”主要体现在公法领域,法律概念及其边界应当清晰,这样才能对公权力行使进行有序规制;二是在参与主体上,应当发挥全过程人民民主在人工智能立法进程中的优势,让人民群众参与到问题讨论中,而不限于“精英”层面;并建立起一个有效的监督制约机制;三是充分发挥已有的法律规范的涵摄和统领作用,延续制度的生命力,从现有体系中寻找新的机遇。