2024年7月6日,在智慧法治学术共同体、上海市法学会、华东政法大学共同主办的2024智慧法治学术共同体年会暨《东方法学》100期办刊研讨会上,《关于人工智能立法的重点制度建议》成功发布。该制度建议由《人工智能法(学者建议稿)》专家组成员共同参与完成,旨在前期发布学者建议稿的基础上,进一步回应人工智能技术产业发展诉求、聚焦理论实务界重点关切、深化凝聚中国人工智能立法制度共识。全文如下:
一、关于明确人工智能发展治理基本原则的制度建议
【条款示例】人工智能产品、服务的开发、提供和使用活动,应当坚持以人为本、安全可问责和绿色发展的原则,遵守法律法规和科技伦理规范,确保人工智能的发展与应用始终符合人类福祉。
【制度考虑】我国人工智能立法的基本原则既应当为人工智能治理确立原则,也应凸显本法制定的中国特色。人工智能开发、提供服务与使用活动的核心价值应当是持续激励创新、确保风险可控,促进人工智能技术始终增进人类福祉。因此,将以人为本、安全可问责和遵循科技伦理规范作为主要制度建议。其他原则如数据安全、网络安全、公平公正、数字弱势群体保护等内容可交由具体制度规定,故而没有在基本原则制度建议中重复。
二、关于加强算力基础设施建设与利用的制度建议
【条款示例】国家加强算力基础设施建设,建立算力基础设施资源调度机制,推动公共算力资源平台建设与利用,构建全国一体化算力网,促进算力基础设施绿色低碳发展。
【制度考虑】算力是人工智能三要素之一,需要建立合理的建设、调度与利用制度。算力基础设施建设与利用既关系到人工智能产业的健康发展,也关系到我国绿色低碳可持续发展目标的实现。国家“十四五规划”提出了“强化算力统筹智能调度”的要求,我国北京、上海等人工智能有关地方性法规也将算力资源统筹供给作为重要制度。域外制度中,欧盟《人工智能法》“鉴于条款”第34条即指出需要重视重要数字基础设施管理和运作。
三、关于推进数据资源建设和公共数据开放共享的制度建议
【条款示例】国家鼓励建设高质量数据集和数据库,制定数据标准体系,建立数据资源共享机制,构建公共数据池,推动公共数据开放共享与在人工智能场景中的创新应用。
【制度考虑】高质量数据(语料)供给,关系着人工智能产业的健康发展。当前,《数据安全法》《个人信息保护法》为代表的数据法律体系框架已经基本建立,需充分考虑在现有法律框架下如何获取高质量数据。公共数据是高质量数据重要来源,应考虑作为公共资源供给支持人工智能产业发展。“数据二十条”明确提出“推进实施公共数据确权授权机制”。全国各省(区、市)大多已推出了公共数据相关地方性法规与规章,特别是上海、深圳等地方人工智能立法中均强化设计了数据资源建设制度。
四、关于促进人工智能知识产权保护和利用的制度建议
【条款示例】国家依法保护利用人工智能进行智力劳动所形成的知识产权,鼓励人工智能开发者、提供者在保障使用者权益的基础上合理约定人工智能生成内容的知识产权归属。人工智能开发者在确保不影响知识产权正常行使,并且没有不合理地损害知识产权权利人合法权益的情形下,可以使用他人享有知识产权的数据进行模型训练。
【制度考虑】人工智能在模型训练阶段需要海量训练数据作为技术要素,在输出阶段也可以生成具有市场价值的知识信息,因此需要在知识产权权利人与人工智能开发者、提供者、使用者之间重塑利益平衡机制,促进科技创新、确保人工智能创新必要的数据资源供给。为此,一方面应当允许人类利用人工智能创造知识产权,并尊重各方主体对权利归属的意思自治,另一方面应当允许人工智能开发者将既有的知识产品作为训练数据进行模型训练,在其采取必要措施避免不合理地侵害知识产权权利人合法权益的前提下,设置人工智能训练数据的合理使用制度。
五、关于构建人工智能发展开源生态的制度建议
【条款示例】国家推进开源生态建设,建立开源治理体系,支持发展开源平台、开源社区、开源项目,鼓励人工智能开发者、提供者按照公平、透明、合理、负责的原则开放软件源代码、硬件设计、应用服务,明确授权范围、使用限制、风险处置以及法律责任等,培育共享协作的开源创新生态。
【制度考虑】开源生态是丰富技术生态、推动共享创新的重要举措,也是我国在《全球人工智能治理倡议》中提到的促进平等共享人工智能技术的重要举措。一方面要支持发展开源社区,鼓励开源模型、源代码、软件等,另一方面也要考虑权益分配与风险防治,开源方和使用方明确约定授权范围、使用限制、风险处置以及法律责任等,鼓励负责任的开源生态建设。
六、关于强化特殊群体权益保护的制度建议
【条款示例】人工智能开发者、提供者应当充分考虑未成年人、老年人、妇女、残疾人等数字能力较弱人群的差异化需求,提供持续、稳定、普惠、开放的人工智能产品和服务,持续弥合数字鸿沟。
利用人工智能开展生产经营活动时,应当充分保障劳动者权益,不得滥用人工智能侵犯劳动者的合法权益。
【制度考虑】人工智能是人类世界的智能化延伸,现实世界中因年龄、性别、健康等差异导致的权利弱势现象也会延伸至人工智能时代,并突出表现为数字鸿沟的显著加深。因此,有必要从人工智能开发阶段就考虑未成年人、老年人、妇女、残疾人等数字能力较弱人群的特殊需求。此外,为了避免人工智能应用带来的人类劳动异化现象,需要设置专款强调劳动者权益保护。
七、关于健全人工智能产品和服务标识制度的制度建议
【条款示例】人工智能提供者应在产品和服务的合理位置、区域添加隐式标识,确保标识的可读性和安全性,建立信息溯源机制。对于可能导致公众混淆的人工智能产品和服务,人工智能提供者应采取技术措施添加显式标识。任何组织和个人不得擅自删除、篡改或隐匿法定添加的标识。
【制度考虑】人工智能产品和服务标识是提升服务透明度和实现信息来源追溯的重要制度。人工智能标识可分为隐式标识和显式标识。要求提供者在产品和服务中进行隐式标识,旨在为事后信息来源追溯提供依据,标识实施者应当保证所制作的标识能够被有效读取,并在必要时提供技术支持。对可能导致公众混淆的信息内容,要求提供者进行显式标识,则能够提示公众该内容的生成属性,降低虚假信息传播风险。同时。鉴于服务内容呈现多样发展趋势,仅明确显式标识以“显著方式”实施,而不指定具体的形式和内容,为下位法律规范和技术规范提供调整空间。
八、关于明确关键人工智能并予以特殊监管的制度建议
【条款示例】国家建立关键人工智能监管制度,对应用于关键信息基础设施、对公民人身权益有重大影响以及能力达到一定级别的基础模型等关键人工智能实施特殊监管。关键人工智能提供者应当通过国家人工智能监管平台进行备案,设立专门安全管理机构,建立安全应急处置预案,并定期进行风险评估和风险披露。
【制度考虑】我国人工智能立法应当从底层逻辑上高度重视对未来发展的适应性,以应对人工智能技术发展与安全风险的不确定性,既要避免“一刀切”的不合理监管,又要对人工智能发展过程中的安全问题予以高度重视。为实现促进人工智能产业发展与防范人工智能安全风险的平衡兼顾,需要基于人工智能的价值属性建立关键人工智能特殊监管制度。在人工智能一般监管要求基础上,对应用于关键信息基础设施、对公民人身权益有重大影响以及能力达到一定级别的基础模型的关键人工智能实行重点监管,从备案、组织机构设置、应急处置、风险评估与披露等方面对关键人工智能服务者提出更严格的监管要求。
九、关于规范人工智能重点应用场景的制度建议
【条款示例】国家加强对公共管理、生命健康、交通安全、司法公正等重点领域的人工智能开发、提供、使用活动的监督管理,人工智能仅可作为人类决策辅助参考,使用者有权随时退出与人工智能产品和服务的交互。
【制度考虑】人工智能赋能千行百业,其产品服务应用落实于各类场景。公共管理、生命健康、交通安全、司法公正是其中尤为可能产生重大影响的领域,需要予以重点规范。在这些领域,尤其需要保持人类对人工智能的最终控制。近年来,我国对这些领域的人工智能应用及其规范进行了重点探索。最高人民法院《关于规范和加强人工智能司法应用的意见》即明确指出,“人工智能辅助结果仅可作为审判工作或审判监督管理的参考”。同时,在这些领域,人工智能也不应成为一种强制性的应用,使用者有权不使用相关产品或服务。
十、关于创新监管方式、推进监管试点的制度建议
【条款示例】国家建立人工智能监督管理试点制度,明确监管试点的参与主体、准入条件、适用范围、运行规则等,探索参与试点主体的责任减轻、豁免规则。