专栏名称: 数据保护官
DPOHUB数据保护官俱乐部的官微:一个聚焦数据隐私和数据安全的非营利性高端学术平台;一个整合法律、技术及管理的专业数据合规生态体;一个制造干货、相互赋能及塑造职业品牌的数据合规共同体。 合作WX:heguilvshi
51好读  ›  专栏  ›  数据保护官

AI Trust观点 | AI治理:平衡公平和隐私的新实践指南

数据保护官  · 公众号  ·  · 2024-06-08 19:19

正文

报名:人工智能管理专家CAIM课程(上海班)

  • 时间:6月22日、23日,聚焦ISO/IEC42001人工智能管理体系

  • 形式:线下为主、线上同步

  • 费用:CAIM6000元,早鸟价9折和团购价8折

  • 地址: 上海市徐汇区宜山路889号4号楼5楼SGS上海培训中心

  • 咨询:138 1664 6268,[email protected]

预报名请咨询


来源:IAPP

翻译及整理:何渊

在人工智能等高级技术系统的操作中,实现公平和隐私之间存在着日益紧张的关系。

公平的数据结果需要理解人口统计差异,但这通常需要收集或推断可能侵犯个人隐私的个人数据。 在应对监管和道德障碍的同时,平衡这些权益已成为AI治理团队的一项艰巨任务。

这种紧张关系不仅仅是一个技术障碍,而是更广泛社会价值观的反映——在这里, 隐私权和追求公平必须共存 。这可能是我们在努力支持在人工智能和机器学习系统中打击不平等的同时,也维护我们的核心隐私原则的过程中,隐私专业人员面临的最困难的挑战之一。

在应对这一挑战时,我们甚至可能感觉自己像是奥德修斯,被困在两个严重危险之间,但知道 唯一的前进方式是穿越 。我们是收集和管理人口统计属性以测试偏见,从而增加隐私风险?还是我们忽视公平,只最大化隐私,使我们的全部努力暴露于灾难之中?

《奥德赛,第十二卷》提供了一个视角:

"现在,在恐惧中哀号,我们划船穿过那些海峡,右边是斯库拉,左边是可怕的卡律布迪斯,她可怕的漩涡吞噬着海浪,但当她吐出来时——就像一个在熊熊烈火上的大锅——她所有的翻腾深处都会沸腾和起伏——爆炸的浪花被喷涌而下,同时溅洒在两个悬崖的顶峰上!"

这种紧张关系远非理论上的——有时,选择可能很快就会为我们做出。例如,在科罗拉多州,一项法案正在等待州长签署,该法案将为开发者和部署者在AI系统是教育、就业、金融、医疗保健、住房、保险、法律服务或基本政府服务决策的 "重要因素"时避免算法歧视创造义务 。缓解措施包括在开发和部署的所有阶段测试公平性和偏见。

与此同时,隐私立法不断扩大对敏感数据类别的保护,包括有时的人口统计特征。虽然许多立法框架包括偏见测试的例外情况,但并非所有框架都内置了这一点。

在这些障碍之间的道路是狭窄的,但可以通过。没有不朽和远见卓识的女神来指引我们的道路,我们应该通过倾听那些之前已经航行过这些浅滩的人开始我们的旅程。

在一份新报告《为公平和权益导航人口统计测量》中,民主与技术中心的AI治理实验室提供了对这种复杂平衡的及时探索。通过报告,米兰达·博根和她的同事们利用他们的真实世界经验,为在各种技术条件下实现稳健的公平性测试提供了清晰的深入研究。

尽管报告也提出了政策建议,但它主要是作为实践者的路线图编写的,概述了通过数据和基础设施控制、隐私增强方法和程序控制来适当测量和处理人口统计特征的方法。报告建立在许多同样有帮助但不太容易获得的先前研究的基础上,例如,这些研究已经检查了美国政府背景下的最佳实践和数据驱动的决策支持。

CDT报告的实质部分提供了对人口统计测试最佳实践的调查,首先关注测量,然后关注负责任地处理人口统计数据。

测量侧重于数据收集阶段,即组织可能"获取、观察、访问、推断或以其他方式理解人口统计特征、近似值或模式"的方法。报告回顾了五种"突出的方法来揭示与人相关的差异"。这些方法包括:

1. 直接从数据主体收集,这必须考虑到隐私、代理和数据质量问题。
2. 观察和推断。
3. 代理和替代特征。
4. 辅助数据集也可以与现有数据结合或比较,以实现偏见测量。
5. 队列发现。

报告在审查用于测量数据集中与身份相关的特征的人口统计特征的方法时,提供了类似的分析水平。并且,如果这还不够,CDT还提供了更多细节,以使用合成数据、探索性分析和定性研究方法等工具来测量跨上下文的差异。

处理人口统计数据的最终建议对隐私专业人士来说应该是熟悉的。CDT的报告包括对方法论、技术和组织护栏的回顾,实践者应该考虑将偏见测量整合为他们处理数据的目的之一。推荐的工具箱包括以下工具:

1. 伪匿名化。
2. 基础设施控制,如基于角色或目的的访问和使用控制——报告引用一家公司将此称为"信任边界"——或使用第三方数据中介,甚至联合架构。
3. 加密。
4. 保留和短暂性,包括硬编码的保留限制、用户对先前收集的人口统计数据的控制,或短暂方法"其中群体估计被即时制作并立即聚合成汇总统计数据。"
5. 隐私增强技术,包括聚合、差分隐私和安全多方计算。
6. 用户控制,如选择退出人口统计研究的能力,尽管报告提醒,基于同意的框架可能与偏见缓解的需求存在紧张关系。"最近通过的欧盟AI法案也承认了这一局限性,明确指出处理特殊类别的个人数据,严格必要以确保在高风险AI系统相关的偏见检测和纠正,是依据'重大公共利益'的法律依据,而不仅仅是同意。"
7. 组织监督,如跨职能委员会、多方利益相关者参与或董事会层面的努力。我会在这份名单上增加独立问责机制的作用,这些机制可以被设计为提供偏见测试中的统一信任标准——也许与数据中介的作用结合。
8. 还推荐进行隐私影响评估,作为评估测量和处理人口统计数据的方法是否充分缓解风险的有用工具。

除了对AI治理专业人员有用的路线图外,该报告对于考虑如何在大型数据集和算法处理中平衡涉及的许多权益的政策制定者也可能有所帮助。CDT的直接建议之一是提醒"机构和监管机构应该期望组织做出合理的努力进行算法影响评估,并参与非歧视努力,特别是在重要的情况下。"






请到「今天看啥」查看全文


推荐文章
野球帝  ·  篮球聊天室
2 天前
科技美学官方  ·  儿时经典系列1:马里奥的扬名
8 年前