专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
宁聚  ·  情况通报 ·  4 小时前  
宁聚  ·  情况通报 ·  4 小时前  
信息时报  ·  涨幅超过黄金!网友:现在还适合入手吗? ·  23 小时前  
信息时报  ·  涨幅超过黄金!网友:现在还适合入手吗? ·  23 小时前  
安徽文旅  ·  春游江淮 千姿百态 | 在九华山坐直升机 ·  2 天前  
安徽文旅  ·  春游江淮 千姿百态 | 在九华山坐直升机 ·  2 天前  
51好读  ›  专栏  ›  新技术法学

AI责任指令:欧盟AI战略中的缺失拼图

新技术法学  · 公众号  ·  · 2025-02-17 07:12

正文


Die KI-Haftungsrichtlinie: das fehlende Puzzleteil in der KI-Strategie der EU

Kai Zenner*

Zenner: Die KI-Haftungsrichtlinie: das fehlende Puzzleteil in der KI-Strategie der EU ZfPC 2024, 242)

翻译:彭姚姚 中国社会科学院大学 法学理论博士

人工智能责任指令:欧盟人工智能战略中的缺失拼图

-泽纳*(Kai Zenner)

当欧盟的人工智能法规于 2024年8月1日生效时,每个人都在谈论它。它是欧洲人工智能热潮中不可或缺的一部分。 ChatGPT 2022年11月发布。然而,鲜为人知的是该法律只是欧盟委员会于2018年3月宣布的更为全面的欧盟人工智能战略的一部分。

该战略由欧盟委员会于 2018年3月宣布,此后不断扩展。 该战略的目的是建立一种欧洲方法,促进欧洲可信人工智能的发展和使用,同时与美国和中国的方法区别开来。

I. 布鲁塞尔的立法准备工作

使欧洲的责任法规适应数字时代是《欧洲责任法》的核心内容之一。从一开始,这就是欧洲方法的核心要素之一。早在 2019年11月,欧盟委员会成立的“责任与新技术”专家组就在一份研究报告中得出结论认为,包括《产品责任指令》在内的现行法规提供了基本的保护,但并不适合处理人工智能的特定风险 。根据这项研究,这些风险包括复杂性、有限的可预测性、自学能力和人工智能系统网络安全方面的弱点。欧洲议会于 2020年10月将研究结论具体化,并在此基础上制定了各种立法提案:对高风险人工智能系统的严格责任( Gefährdungshaftung ,抑或译为危险责任)、所有责任方的连带责任或对《产品责任指令》的针对性调整。

与人工智能法规和欧盟的创新促进措施(如人工智能协调计划 或人工智能工厂 ),在责任问题上进展有限。例如,尽管欧盟委员会在 2022年9月提出了《人工智能责任指令》,但成员国和欧洲议会都没有就该指令达成一致意见。原因既在于违反了更好的监管议程,也在于指令本身的内容。

II. 法律制定缺乏协调

马里奥 -德拉吉在2024年9月提交的欧洲竞争力报告中提出的主要批评之一是监管过度和法案起草计划中缺乏协调导致的企业合规成本过高。 特别是在数字领域,冯德莱恩的委员会自 2019年以来,立法提案急剧增加。在2024年6月,布鲁塞尔智库“Bruegel”统计了116项最终或计划中的数字法律、其中许多法规和监管结构相互重叠,甚至相互矛盾。

《人工智能责任指令》为这一发展背后的动力提供了一个很好的例子。自 2018年以来,该项目已成为初步协调一致的人工智能战略的一个组成部分,也是2020年2月提交的“人工智能白皮书” 的一部分。该项目不久后被推迟。原因是:欧盟委员会主席冯德莱恩承诺在 100天内提出一部横向的人工智能法 ,这对负责通信网络、内容和技术的总局 (DG) 造成了巨大的压力。使其无法再等待委员会的其他部门。人工智能战略被分割开来。司法和消费者总局 ( DG JUST )今后将继续开展自己的工作。竞争总司( DG COMP ) 负责《产品责任法》的修订。除了时间表不同之外, 例如, DG CONNECT 和竞争总司 (DG COMP) 直到最后都试图阻止司法总司 (DG JUST ) 公布《人工智能责任指令》。

III. 委员会提案内容的问题

虽然负责的 DG JUST 仍然遵守了 “更好的监管议程” 的基本要求,如准备影响评估 。上述协调问题意味着跨部门磋商 并未成功将《人工智能责任指令》与欧盟的其他法律明确区分开来。

这里有三个例子可以说明这一点:首先,人工智能法规试图通过对人工智能系统的提供者和使用者提出预防性要求来防止损害,但有时会使用其他定义和概念。尤其有问题的是,《人工智能条例 KI-Verordnung 》中基于风险的方法并没有始终如一地纳入《人工智能责任指令》。 其次是《产品责任指令》对有缺陷的人工智能软件规定了严格的责任,而非《人工智能责任指令》中的过错责任, 因为各成员国可能以不同形式贯彻指令,大规模的法院挑选( Forum Shopping )可能成为后果。原告可能会尝试在适用最有利法律条件的成员国提出索赔。第三, GDPR 的个人数据保护规则可能与《人工智能责任指令》的举证责任相冲突。例如,如果人工智能系统因不正确的数据处理导致损害 ,要求披露信息的义务可能会导致需要透露敏感的个人数据 这可能会违反 GDPR 的规定。

然而,除了与其他欧盟法律重叠之外,欧盟委员会提案本身饱受批评。 值得注意的是,民间社会组织和学者通常认为提议的规则缺乏雄心,而工业界则认为委员会的提案 走的过远 一方批评引入基于过错责任制度不适用于人工智能系统的特定风险。受害者最终可能面临无法执行的赔偿要求。 相比之下,企业代表认为,人工智能责任指令中有利于受害者的因果推定可能会导致一波诉讼潮,迫使人工智能公司进行 诉讼外 和解。 尤其是中小企业和初创公司几乎无法反驳责任倒置的要求。它们将为不可预见的结果负责,尤其是在人工智能系统在交付后进行调整或发展时。最后,许多利益相关者指出, 人工智能责任指令 的规定,特别是对受害者的全面披露义务,可能会危及人工智能公司的商业秘密和知识产权,甚至可能被泄露给竞争对手。

IV. 必要的重启:欧洲议会的计划

欧洲 议会面临着一个艰难的决定,因为在 2020年的倡议报告中,它曾明确要求 制定 比欧洲委员会最终提出的人工智能责任指令更为广泛的规定。然而,许多议员也意识到,当前关于人工智能监管和产品责任指令的立法谈判存在数据不明的情况,并且可能带来立法重叠和矛盾的风险。因此,他们担心过度监管可能会扼杀 欧盟尚处于萌芽阶段的人工智能产业,而无法有效提高 公众的保护水平。

V. 展望

为了更好地评估人工智能战略的初衷, 是否已经通过新的 产品责任指令 实现了人工智能战略中关于将欧洲责任规定调整到数字时代的目标,欧洲议会决定采取一个不寻常的步骤:议员们委托议会的科学服务部门进行替代性影响评估,特别研究 人工智能责任指令 与人工智能监管 以及《 产品责任指令







请到「今天看啥」查看全文