当前,人工智能(AI)浪潮席卷全球,特别是ChatGPT等生成式人工智能的突破式发展,给人类社会既带来了机遇,也带来了挑战,其引发的安全风险对监管和治理提出新要求。近日,欧盟《人工智能法案》(EU Artificial Intelligence Act,后文简称“法案”)正式生效,成为全球首部全面监管人工智能的法规[1]。
欧盟委员会最早于2021年4月提出了监管人工智能的谈判授权草案;2023年12月,欧洲议会和欧盟委员会就此法案达成协议。今年2月,欧盟27国代表对《人工智能法案》的最终协商文本予以确认,并成立了人工智能办公室(European AI Office)以支持该法案的实施。今年5月,欧盟理事会正式批准该法案。7月12日,法案正式发布于《欧盟官方公报》,标志着该法案正式通过全部立法程序,成为欧盟法律,并于8月1日生效[2]。
后续实施方面,欧盟AI法案相关规则将分阶段进行,某些规则将在该法律通过6个月后或12个月后生效,而大部分规则将于2026年8月2日开始生效。欧盟委员会的人工智能办公室将是该法案在欧盟层面实施的关键机构。同时,欧盟成员国需在2025年8月2日之前指定各自国家市场监督和法律适用的主管部门[3]。
欧盟《人工智能法案》将适用于欧盟内外的公共和私人参与者,只要其提供或部署的人工智能系统进入欧盟市场,或其使用对欧盟境内的人员产生影响。欧盟委员会指出,法案规定的义务对供给者和使用者都会产生影响,但也存在一定的豁免情况,例如AI系统正式投放到市场前的开发和研究等活动不受法律约束,此外专用于军事、国防、国家安全目的的AI系统也可获得豁免权[4]。
法案根据AI系统的安全性和风险性将其划分为四种类型,分别是不可接受风险、高风险、特定的透明度风险和最小风险,风险越大则监管越严格[5]:(1)大多数AI系统属于最小风险级别,如使用AI过滤垃圾邮件的系统等,由于对公民权利和安全风险较小,这些系统在法案的框架下无需承担任何义务。(2)对于具有特定的透明度风险的AI系统,如聊天机器人,法案要求包括系统必须向用户清楚地披露他们正在与机器交互,深度伪造的内容需被标记等。(3)自动驾驶汽车、医疗设备、贷款决策系统、教育评分和远程生物识别系统等均属于高风险人工智能系统,因其涉及医疗健康、公共安全、交通运输等关键领域。高风险人工智能系统必须履行广泛的义务,包括在投放市场之前供应商必须对其进行合格评定,以确保其满足数据质量、存档和可追溯性、透明度、人工监督、准确性、网络安全和稳健性等要求。(4)对用户基本权利构成明显威胁的AI系统,可能侵犯隐私或人权的AI应用将被禁止,属于不可接受风险类的人工智能系统。
特别地,对于包括生成式AI在内的通用人工智能模型,法案要求模型的提供方需向下游系统供应商披露特定信息,确保后者能够访问所有必要信息,从而更好地理解这些模型。模型提供方还需制定适当的政策,以确保在训练模型时尊重版权法。目前,使用总计算能力超过1025次FLOPs(浮点运算)训练的模型被推定为具有系统性风险,这类模型的提供者有义务评估和减轻风险、报告严重事件、进行最先进的测试和模型评估,并确保其模型的网络安全[6]。
欧盟委员会表示,《人工智能法案》的核心目标是确保在欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。该法规将在欧盟建立一个统一的人工智能内部市场,鼓励AI技术得到采用,并为创新和投资创造一个支持性的环境[7]。
欧盟委员会内部市场委员蒂埃里·布雷顿认为,“《人工智能法案》不仅是一本规则手册,它还是欧盟初创企业和研究人员引领全球人工智能竞赛的跳板”。有分析人士认为,通过明确的监管框架,企业可以在合规的前提下大胆开展技术创新,用户对AI技术的接受度和信任度也将大幅提高,二者将共同推动AI技术进一步发展[8]。
但与此同时,该法案的实施或将增加人工智能相关企业的合规成本[9]。《人工智能法案》的处罚规定:违反法案有关禁止的AI系统的要求,将被处以最高3,500万欧元或上年度全球营业额7%的罚款;违反法案的其他合规要求,将被处以最高1,500万欧元或上年度全球营业额3%的罚款;向监管机构提供不正确、不完整或误导性信息的,将被处以最高750万欧元或上年度全球营业额1%的罚款,三者均以数额较高者为准[10]。此外,法案分阶段实施期间,可能有一些存在争议的事项需要厘清。这或主要集中在定义和具体合规要求上,如高风险人工智能系统精确界限、基础模型和应用模型的区分等;如何有效评估和监控人工智能系统透明度和公平性也存在不确定性[11]。
当前人工智能技术的快速发展正呼唤着全球治理体系的相应完善,越来越多的国家已意识到对人工智能立法监管的重要性。在欧盟批准《人工智能法案》后,美国非营利组织负责任人工智能研究所敦促政府“美国需要自己的(人工智能监管)法规政策”。英国议会于2023年11月发布《人工智能监管法(草案)》,英国科学、创新和技术部于2024年2月向英国议会提交《人工智能监管的创新方法:政府的回应》[12]。有分析认为,欧盟《人工智能法案》的生效,将带动人工智能监管立法热潮。目前,许多国家和地区正在制定人工智能监管法规,欧盟新法案可能为后来者提供重要借鉴[13]。
与此同时,AI监管方面的国际合作也在加强。今年5月,在人工智能首尔峰会上,美国、英国、加拿大、日本、韩国等10个国家以及欧盟共同签署《首尔声明》,呼吁加强国际人工智能治理合作以及治理框架之间的互操作性,倡导以风险为基础的政策和治理框架,支持启动首个国际人工智能安全研究所网络,促使国家间形成对人工智能安全的共同理解,并在研究、标准和测试方面进行协调[14]。今年7月,欧盟委员会、英国竞争与市场管理局、美国联邦贸易委员会和美国司法部签署联合声明,旨在通过公平公开的竞争释放人工智能技术所能提供的机遇,并制定了维护公平竞争和保护消费者的共同原则[15]。