麻策律师整理:
作为全球第一部关于人工智能的综合性法律,
欧盟《人工智能法案》在今天,即2024年8月1日正式生效。为此,荷兰数据保护局发布了合规攻略指南,以下为相关指南内容:
《人工智能法案》在2024年8月1日正式生效,法案适用于整个欧盟,包括荷兰。
在不久的将来,该法对人工智能(AI)开发者和用户的各种要求将逐步适用,第一个要求将从 2025 年 2 月开始适用。
根据法案,某些形式的人工智能将被禁止,使用人工智能的组织内部必须对此有足够的了解,因此,人工智能的开发者和用户最好现在就开始为这项新法律做准备。
《人工智能法案》是全球第一部关于人工智能的综合性法律。
人工智能法规规定了公司、政府和其他组织负责任地开发和使用人工智能的规则。
人工智能法规的目的是确保每个人都可以相信人工智能系统安全运行并且基本权利受到保护。尽管有许多系统风险很小,而且人工智能有各种各样的好处,但人工智能也有其另一面。
现行法律,例如
《 通用数据保护条例》(GDPR) 和《 通用数据保护条例》
已经提供保护。例如,如果人工智能系统用于处理个人数据。但这不足以解决与人工智能相关的所有风险。例如,不负责任地使用人工智能可能会导致歧视、对我们自由的限制以及对人们的欺骗和剥削。
人工智能法规有助于确保人工智能系统的开发人员解决风险并对其进行监控。
《人工智能法案》根据风险组对人工智能系统进行分类。公民和整个社会面临的风险越高,规则就越严格。例如,法律规定的要点是:
1.禁止带来不可接受风险的应用程序;
2.构成高风险的应用程序须遵守更严格的规则。例如,用于招聘和选拔或执法的人工智能系统。例如,组织必须记录系统活动,建立适当的数据管理并确保可以进行人工监督。他们还必须能够证明他们履行了这些义务。人工智能法规包含一系列 必须满足这些和其他要求的
高风险系统
。风险较低的应用程序必须遵守不同的透明度规则。例如,生成人工内容的系统必须向公民明确标记这一点。
3.任命的监管者可以强制遵守法规,迫使组织从市场上撤回产品并处以罚款。
如果您的组织正在开发或使用人工智能系统,您有责任检查该系统属于哪个类别。在这些义务适用于高风险人工智能系统之前,将制定指南来帮助组织评估哪些系统属于哪个风险组。
人工智能监管既针对提供人工智能的组织,也针对使用人工智能的组织,从政府和医疗机构到中小企业。
例如,提供商必须确保他们开发的系统在投放市场并投入使用之前满足要求。有时他们必须继续监控是否出现风险,例如为了保护基本权利。如果系统出现问题,请采取行动。提供商还必须确保高风险人工智能系统足够透明,以便得到适当使用。
例如,组织有责任根据提供商提供的使用说明来使用高风险的人工智能系统。用户组织还必须确保这些系统受到人工监督,使用相关且具有足够代表性的输入数据,并向提供商和主管报告事件。在某些情况下,他们还必须在欧洲数据库中注册该系统的使用情况。
此外,《人工智能法案》规定,所有接触人工智能系统的人都有权:向监管机构提出投诉;在某些情况下,当根据高风险人工智能系统的输出做出决策时,会得到解释。
规则也适用于“通用人工智能模型”的提供商,这些模型也被称为“通用人工智能” 。这涉及构成其他应用程序基础的模型,例如人工智能聊天机器人存在的语言模型。除其他外,这些模型的开发人员有义务准备有关其产品的技术文档,使系统“可解释”,并且他们必须制定保护版权的政策。执法工作将主要由欧洲人工智能办公室在欧洲层面进行。
对于人工智能的开发者和用户来说,快速盘点他们提供或使用的人工智能系统以及属于
哪个风险组
非常重要:它们是即将被禁止的人工智能系统、具有高风险的系统还是具有高风险的系统。风险有限?那么最重要的是采取行动:
禁止人工智能。开发人员必须将这些系统撤出市场,使用它们的组织也必须停止这样做。
有关禁止人工智能的规定
已于 2025 年 2 月起生效。拥有这些系统的组织也很可能已经违反了法律,例如平等待遇、隐私或劳动立法领域的立法。根据《人工智能法规》,从 2025 年 8 月起,开发或部署违禁人工智能的组织必须面临巨额罚款。美联社将在不久的将来进一步澄清哪些系统属于禁令范围,哪些系统不属于该禁令。
高风险人工智能。这些系统必须满足风险管理、所用数据质量、技术文档和注册、透明度和人工监督等要求。此外,这些系统必须有质量标志。AI系统的用户已经可以向提供商询问他们准备在多大程度上确保AI系统满足要求。有时,附加要求适用于政府或执行公共任务的机构,例如进行“基本权利影响评估”。如果无法满足这些要求,则不允许开发人员提供这些系统,也不允许组织使用它们。
风险有限的人工智能。透明度义务适用于旨在联系人们或生成内容的系统,例如
深度伪造
。如果提供或使用这些系统,则必须告知人们。开发人员必须以一种可行的方式设计他们的系统,而部署系统的组织必须真正通知人们。人工智能系统的用户最好向提供商询问其状态。