专栏名称: 法学学术前沿
识时务 有情怀 讲方法 结善缘 —— 易明法律研究院
目录
相关文章推荐
游戏茶馆  ·  严格执行!越南新规:上架App ... ·  10 小时前  
游戏茶馆  ·  苹果App ... ·  10 小时前  
法治进行时  ·  过年了打麻将,发的红包算赌博吗? ·  14 小时前  
51好读  ›  专栏  ›  法学学术前沿

前沿 | 武腾:人工智能时代个人数据保护的困境与出路

法学学术前沿  · 公众号  ·  · 2024-10-15 11:06

正文

人工智能时代个人数据保护的困境与出路

作者 武腾,中央财经大学法学院教授,法学博士。

来源 《现代法学》2024年第4期。

为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。


摘  要


人工智能的发展离不开对大量个人数据的处理。只有妥当适用《个人信息保护法》中的目的限制原则和有关个人知情权、决定权的规则,才能有效保障人工智能安全发展。目的限制原则包括“两肢”,一是处理目的自身的限制,二是处理目的对处理方式的限制。目的限制原则与人工智能发展之间有紧张关系,面临适用困境。该原则丧失实效,既会造成最小必要原则等多项原则难以适用,又不利于个人知情权、决定权的行使,还易致使个人数据交易欠缺自愿性、公平性。我国目的限制原则采用“宽进严出”模式,个人数据处理者不必将人工智能发展和应用中对个人数据的每一步处理活动加以披露,而是应分别披露训练机器学习模型、制作用户标签和画像、提供个性化服务等不同处理目的、处理方式,并揭示其各自风险。经由人工智能制作用户标签和画像的,属于个人数据处理活动。该处理活动只有同时包含体现公平价值的设计,才具有充分的合理性。此外,还应构建程序性规则以保障个人能够以集体的方式行使个人对标签、画像享有的有限决定权。

关键词:人工智能;个人数据;目的限制原则;数据画像;个人信息保护


目  次


一、人工智能发展中个人数据保护的困境

二、人工智能发展中目的限制原则的灵活适用

三、人工智能活动及其风险的单独告知

四、人工智能商业化应用中个人决定权的集体行使

结   语



近年来,我国高度重视推动人工智能发展。2023年7月24日,中共中央政治局会议提出,“促进人工智能安全发展”。2023年8月15日起施行的《生成式人工智能服务管理暂行办法》第3条强调“国家坚持发展和安全并重、促进创新和依法治理相结合的原则”,该办法对生成式人工智能的安全风险作出专门调整。2023年6月,国际计算机学会通过了《关于开发、部署和应用生成式人工智能技术的若干原则》,将个人数据保护列为一项主要原则。新一代人工智能的发展需要利用海量个人数据,个人数据安全是人工智能安全发展下的重要课题。


个人数据是人工智能的“燃料”,有关个人数据保护和利用的法律从源头上影响人工智能行业的发展。若严格适用个人数据保护相关法律,可能阻碍人工智能的发展。围绕如何适用目的限制原则和最小必要原则,学界便产生分歧。有学者指出,无论在欧盟还是在我国,目的限制原则与必要原则的规定使得数据很难被用于人工智能训练,因为除了极少数专门采集的个人数据,绝大部分个人数据被收集时,其目的都只和消费等个人目的相关。有学者则认为,生成式人工智能的算法模型运行时,其技术发展诉求不能成为违规利用个人数据的理由,不能过度收集和处理个人数据,应适用最小必要原则使个人权益受到的限制尽量处于最低水平。可见,学界对人工智能快速发展背景下个人数据保护基本原则如何适用存在不同观点。


在人工智能发展实践中,个人数据保护的基本原则和具体规则尚未得到全面遵循,个人信息权益也未受到充分保护。大力投入人工智能技术开发的腾讯,在其《微信隐私保护指引》介绍了大规模个人信息处理的情况。该文件第1.34条规定:“我们可能将通过某些功能所收集的信息用于我们的其他服务。例如,我们可能将你在使用我们某一功能或服务时我们收集的信息,在另一功能或服务中用于向你或你的好友提供特定内容,包括但不限于展示广告(你可以通过‘我—设置—个人信息与权限—个性化广告管理’管理微信为你提供的个性化广告)。”此处关于处理目的、处理方式的描述十分抽象难懂。该规定列出的主要示例是,“基于特征标签进行间接人群画像并提供更加精准和个性化的服务和内容”。制作特征标签、进行人群画像和提供个性化服务等活动被压缩在一条示例之中,处理目的就落脚于个性化推荐。如此一来,前面的活动似乎仅仅是个性化推荐的一部分,用户可以通过个性化广告服务的管理进行自主选择,其个人信息权益似乎已经得到周全照顾。然而,即使用户关闭了微信中的个性化广告服务,其个人信息仍会被大规模收集和加工,其标签和画像仍然会被制作,个人决定权的行使范围十分有限。


其实,训练机器学习模型、制作标签和画像、个性化推荐是三项不同的活动。三者并非在技术上必然同时发生,而是人工智能商业化应用的不同步骤,各个步骤对个人权益有不同的影响,个人可以行使的权利范围也有所不同。实践中已经暴露出的问题包括:其一,个人数据处理目的透明度低,机器学习训练、制作标签和画像等基本上被掩盖在个性化推荐这一目的之下,仅仅作为个性化推荐的前置条件被提及,不具有明确性;其二,制作标签和画像等处理目的合理性不充分,基本上依附于个性化推荐的合理性,而未显示出其自身的合理性;其三,在人工智能商业化应用中,用户很难获知其标签究竟包括什么、是否准确,也很难修改。用户即使拒绝个性化推荐,也无力影响企业对标签、画像的制作。总之,无论是《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第6条中的目的限制原则,还是该法有关个人知情权、个人决定权的规则,在实践中尚未得到全面遵循,进而未彰显出其本应具有的增加人工智能透明性、可解释性和保障个人自主决定权的功效。


《个人信息保护法》是有关个人数据保护和利用的基础性法律。该法生效后,以人工智能大模型为代表的人工智能发展浪潮迎面而来。该法的适用不仅在理论上存有分歧,在实践中也面临较大挑战。有必要研究该法规定的目的限制原则能否、如何有效适用于人工智能发展活动,该法规定的个人知情权规则、个人决定权规则能否、如何适用于个人标签、画像的制作活动。


一、人工智能发展中个人数据保护的困境


在人工智能发展中,个人数据保护的困境主要体现在两个方面,一是目的限制原则及相关原则的适用陷入困境,难以发挥实际功效;二是个人信息权益的实现面临较大困境,个人知情权规则、个人决定权规则在个人标签、画像制作过程中未得到有效适用。


(一)目的限制原则适用面临的困境


目的限制原则是国内外个人数据保护法普遍接受的基本原则。在20世纪70年代美国行政部门提出的公平信息实践原则中,区分目的特定原则(purpose specification)与使用限制原则(use limitation)。在经济合作与发展组织(以下简称经合组织)《隐私保护和个人数据跨境流通指南》(1980年发布,2013年修正)和欧洲《有关个人数据自动化处理中个人保护的公约》(以下简称《108号公约》)中,同样区分目的特定原则与使用限制原则。欧盟2016年《通用数据保护条例》将目的限制与使用限制统一作出规定。在欧盟法中,目的限制原则包括两部分内容:一是收集目的必须特定、明确和正当;二是使用不得与上述目的不相兼容,从而确立了目的限制原则的所谓“两肢”。


《个人信息保护法》第6条内容丰富,国内学者针对目的限制原则的内涵及其与最小必要原则的关系提出不同意见。有的认为,该法第6条规定的目的原则相当于欧盟法上的目的限制原则和数据最小化原则。有的认为,该法第6条第1款规定了目的限制原则的三个层次,第2款关于数据最小化原则的规定则是目的限制原则与必要原则在个人信息收集环节的体现。有的认为,该法第6条确立了目的限定原则,是比例原则中适当性与必要性原则的混合。还有的认为,该法第6条第1款规定了目的性原则与必要性原则。总之,多数意见认为,《个人信息保护法》第6条第1款是目的限制原则的主要依据,且该款规定与最小必要原则有密切联系。本文认为,一方面,应采用“两肢法”界定目的限制原则;另一方面,应区分目的限制原则与最小必要原则。目的限制原则包括两方面内容,一是处理目的自身的限制,即处理目的必须明确、合理;二是处理目的对处理方式的限制,即处理方式与处理目的必须直接相关。至于《个人信息保护法》第6条中有关“采取对个人权益影响最小的方式”“收集限于最小范围”等规定,属于对处理方式所作的具体要求,虽然需要结合处理目的来加以判断,但明显具有相对独立性,适宜将其作为最小必要原则的内容。


如前所述,互联网企业发布的隐私政策大多会对个人信息处理目的予以介绍,但是有关处理目的的介绍往往层次不清、易生歧义。在司法实践中,有的人民法院在围绕个人数据处理行为是否符合法律规定进行审理时,尚未根据目的限制原则进行说理。在“陈某诉北京百度网讯科技有限公司个人信息保护纠纷案”中,百度公司既经营搜索引擎,又经营贴吧,搜索引擎中有关搜索记录的个人信息被用在贴吧产品中,用于个性化推荐。该案焦点问题之一是,上述有关搜索记录信息的处理是否符合法律规定。人民法院认为,“一个公司基于其开发产品而获得的用户信息属于公司重要资产,其有权在合理限度内在其其他产品中积极使用。同时,百度公司就百度平台产品设置了综合性的隐私政策平台,对于搜索记录这类仅反映用户一般偏好的信息而言,将其迁移至关联产品中予以使用的行为并未超出一般社会认知的合理期待,即未超出对用户信息的合理使用限度”。其实,搜索记录中很可能包含个人不希望在社交中为他人所知悉的兴趣、需求,如果可以不经过个人同意,便用于其他产品之中,尤其是应用到具有社交属性的场景中,可能超出公众的合理期待。搜索记录被广泛商业化应用,可能直接威胁个人隐私的核心领域。人民法院在处理这类纠纷时,应当充分认识并发挥目的限制原则的功效。根据目的限制原则的指引,处理这类纠纷的应然路径是先查明企业在处理搜索记录信息时是否将个人信息处理目的予以明确化,再判断该处理目的是否具有充分的合理性,最后判断将搜索记录用于其他产品中并开展个性化推荐是否为实现该处理目的所必需。


目的限制原则缺少实际功效的根源,在于其与人工智能发展之间具有深层次的紧张关系。传统个人数据保护法的主要宗旨是限制个人数据的处理,并使其对数据主体透明。为此,需要使个人数据处理的各个单独阶段对数据主体保持透明,并获得数据主体的同意。目的限制原则、最小必要原则、透明原则等均是以此理念为基础,协力促使上述目标实现。


人工智能的快速发展却给上述目标的实现带来严峻挑战。现代意义上的人工智能(artificial intelligence,简称AI)诞生于1956年的达特茅斯人工智能大会,人工智能研究和应用的主要目的是,让人造的机器能开展本来只有依靠人之智慧才能开展的活动。人工智能主流模型有二,一种是符号主义或者经典逻辑,又被称为老好人人工智能(Good Old-Fashioned AI),机器根据人编写好的特定处理规则处理特定问题;另一种是联结主义或者人工神经网络,人并未事先编写特定处理规则,而主要由机器根据训练的数据自行发现特定处理规则。近年来,计算机、互联网等技术迅速发展,联结主义风头正盛。算力、算法、数据成为人工智能蓬勃发展的主要推动力量。在三者之中,数据是算法的燃料,因为只有依靠海量数据,才能训练算法,从而发展更高级的人工智能。成功的大型互联网企业都会运用智能技术从海量个人数据中“挖掘知识”,以满足客户的个性化需要。不过,计算机技术专家早已指出,数据挖掘是数据收集之后典型的二次性目的(secondary purpose);由于从数据中挖掘知识具有“探索性质”(exploratory nature),所以几乎不可能事先知道什么该挖掘,什么不该挖掘。当前人工智能发展的主流模式之一是机器学习,在无监督学习的情况下,即使是开发机器学习的程序员也难以理解人工智能获得结果的全部过程;依法规范每一步数据处理的想法与这种“黑箱”的现实格格不入。如果将每一次数据收集、每一步数据处理都按照目的限制原则的要求予以披露,并获得个人的同意,会给人工智能发展带来巨大的成本乃至不确定性。有意见认为,严格适用目的限制原则不利于对个人数据的利用。有意见甚至认为,在人工智能时代应当削弱甚至放弃目的限制原则,因为这一原则以及传统的个人数据保护理念起源于20世纪70年代,已经无法对人工智能技术进步作出充分回应。


然而,目的限制原则在个人数据保护法中处于“基石”地位,其他原则大多奠定在目的限制原则这一基础之上。如果严重削弱甚至放弃目的限制原则,那么最小必要原则、透明原则、质量原则等诸多原则也会难以适用,从而出现个人数据保护多项原则一并失效的后果。其一,目的原则丧失功效造成最小必要原则适用困难。在目的限制原则丧失实际功效的情况下,处理目的往往不明确、不特定。如此一来,就难以判断处理方式是否与处理目的直接相关,也无从判断收集范围是否最小化、给个人权益造成的不利影响是否最小化。其二,目的限制原则丧失功效意味着透明原则未被遵循。根据《个人信息保护法》第7条规定,个人信息处理者应向个人告知处理目的、处理方式等,只有目的本身足够“透明”,满足个人充分知情之需,才能符合透明原则的要求。目的限制原则丧失功效意味着透明原则根本未得到贯彻。其三,目的限制原则丧失功效造成质量原则适用困难。《个人信息保护法》第8条规定:“处理个人信息应当保证个人信息的质量,避免因个人信息不准确、不完整对个人权益造成不利影响。”在个人信息处理目的不明确的情况下,其所需要的个人信息的准确度、完整度也难以确定。只有将处理目的明确揭示出来,才能基于该目的判断所收集的数据是否足够准确、足够完整,是否已经及时更新。总之,个人数据保护的各原则之间虽然重心有所不同,但彼此关联紧密,抛弃目的限制原则或者放任其丧失实际功效,将造成个人数据保护的诸多原则均无法发挥作用。


(二)个人信息权益实现面临的困境


《个人信息保护法》第44条规定,个人对其个人信息处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理。知情权、决定权是个人在个人信息处理活动中的“基础性、概括性”权利。知情是决定的前提,决定是知情的目的。告知规则、查阅复制规则、解释说明规则等主要体现了知情权的要求,更正补充规则、删除规则、可携带规则等主要体现了决定权的要求。这些规则中的具体权利具有工具性、手段性特点,其功能是帮助实现个人的自我决定,维护人格自主发展。自我决定是民法和宪法中的一般原则,自我决定原则是私法自治的组成部分,在意思表示瑕疵等领域有十分广泛的体现。不过,私法自治中“永恒存在的是权力配置不均衡时常会危及私法自治的矛盾”。在一方当事人的自主决定权被事实上剥夺时,就需要通过强制性规定来加强对该方当事人的保护,以矫正权力配置不均衡。向个人赋予个人信息相关各项权利,就是为了帮助实现个人自主决定。


个人信息权益本质上是一种维护自主决定的人格权益。一方面,个人信息相关各项权利有宪法上的加持,能够对国家产生效力。另一方面,个人信息权益具有民事权益属性,能够对私人产生效力。当处理个人信息的企业未依法履行告知义务、更正义务、删除义务等义务时,个人可依据《个人信息保护法》第50条第2款诉请人民法院判决该企业履行上述行为义务。


依据《个人信息保护法》第14条第1款,基于个人同意处理个人信息的,该同意应当由个人在充分知情的前提下自愿、明确作出。个人知情权规则具有基础地位,知情权的有效实现是个人行使其他权利的前提。


然而,在有关人工智能发展的个人数据处理中,并非所有企业都向个人清楚告知了处理目的、处理方式以及相关风险。有的智能产品企业在披露其处理个人语音数据的目的时往往采用比较模糊的表述,让人难以理解其处理方式,也难以获知个人权益遭受侵犯的风险。百度对话式人工智能操作系统隐私政策中提到,其会利用“语音信息进行模型训练”,如果用户参加所谓“语音交互改进计划”,机器会“额外收集您在唤醒设备的过程中所产生的不超过10秒的语音信息(截至设备被唤醒),并且与您发出的语音指令一起用于模型训练,同时会在您结束交互后等待更长的时间(例如0.5秒)。”然而,该隐私政策并未清楚告知其基于训练模型处理个人数据的范围多大、风险如何。第一,所谓“额外收集您在唤醒设备的过程中所产生的不超过10秒的语音信息(截至设备被唤醒)”时间范围不清晰。只要智能设备周围出现语音聊天,就可能被识别为处在唤醒设备的“过程”中,设备便会持续不断收集若干段语音信息,从而构成对语音数据的大范围收集以及对隐私的侵犯。第二,“结束交互”的时间也不清晰,很多用户在结束与智能设备的交流之后并不会明确发出关机指令,这就会出现虽然用户认为交互已经结束,但是设备仍在持续不断收集语音数据的情形。第三,结束交互后等待的时间范围也不清晰。在该隐私政策中,0.5秒仅是一个示例,而不是其承诺的最长等待时间。即使在交互结束之后,设备也可能等待更长的时间以收集数据。可见,由于语音数据收集范围的不确定,人工智能活动可能存在超范围收集个人数据乃至侵犯隐私的风险。


同样常见的是,企业没有根据个人数据的类型、处理方式,保障个人行使决定权。人工智能容易受到偏见的影响,为减少或消除歧视,须慎重制作用户标签,因为标签是影响预测质量和预测偏见的关键因素,仔细选择标签可以让我们在最大限度降低风险的同时享受算法预测的好处。企业在利用个人数据添加特征标签、制作用户画像时,应谨慎考察标签能否客观、公平地反映个人的特征,给个人以查询、更正、删除部分个人特征标签的机会。但在实践中,个人基本没有机会查询标签和画像,更没有机会行使决定权。例如,建设银行很早便开发智慧银行,“将个人客户画像标签归纳为七大类:基础信息、信用与风险、金融行为、非金融行为、联系情况、渠道特征、客户分析,共计2229种标签”,而用户通过建设银行应用程序中“我的画像”只能查询到极少的标签。


个人信息权益难以实现,还会造成个人数据交易缺乏自愿性和公平性。如果个人对交易目的、交易标的物等内容不知情,甚至存在误解,个人在参与数据流通交易时必然缺少真正的自愿,也难以保障个人数据交易的公平性。在实践中,大规模个人数据处理目的经常被表述为“提升用户体验”“改善服务质量”。在交易关系中,显然无法将“接受服务”认定为个人所付出的代价,而只能将其理解为个人所获得的利益。实际上,个人数据本身便是发展人工智能的燃料,只有借助这些燃料,企业才有可能改善机器学习模型、算法。当个人同意企业处理大规模个人数据,从而帮助企业训练机器学习模型、改善商业决策时,个人所提供的对价并非财产,而是劳务。原因是,个人同意企业处理的个人数据并非小规模数据,而是不间断产生的大规模数据,大规模个人数据的实时提供具有人身专属性,该活动与人格尊严的距离很近,故不适合将个人持续提供大规模个人数据定性为个人提供财产,而适合将其定性为个人提供劳务。只有将大规模个人数据处理的主要目的——利用海量数据训练机器学习模型、制作用户标签和画像等予以单独披露,才能揭示上述交易目的和交易性质。


二、人工智能发展中目的限制原则的灵活适用


《个人信息保护法》有关目的限制原则的规定采用“宽进严出”模式,这一模式有助于容纳人工智能发展的需要,同时要求将人工智能相关目的全面披露。只要对目的限制原则予以灵活适用,便有助于在保护个人信息权益与促进人工智能发展之间实现平衡。


(一)“宽进严出”模式下应明确披露人工智能各层处理目的


在欧盟法中,目的限制原则实行“严进宽出”模式。所谓“严进”,是指处理目的必须具有特定性,无论处理何种类型的个人数据,处理目的都必须具体、特定。所谓“宽出”,是指对处理方式与处理目的的关联性采用“相兼容”(compatible)标准。至于是否“相兼容”,需要在具体案件中进行判断。2022年10月20日,欧盟法院在C-77/21号判决中指出,个人数据控制者、处理者应当确保最初收集个人数据的目的与进一步处理的目的之间存在具体、合理和足够紧密的联系,并且确保进一步的处理不会偏离数据主体对进一步使用其数据的合理期待。


与之形成对照的是,我国目的限制原则实行“宽进严出”模式。《个人信息保护法》第6条第1款只要求处理目的明确、合理,而未要求“目的特定”。结合该法第28条第2款进行体系解释,特定性并不是目的限制原则的一般性要求,而只是对敏感个人信息的特别要求。同时,在处理方式的相关性方面,该法第6条第1款规定了“直接相关”,从而仅包括与处理目的具有高度紧密联系的处理方式。处理方式与处理目的越疏远,越难以被初始目的所涵盖,对个人信息的后续处理越容易被认定为是出于另外的目的,此时只能交由目的变更规则来调整。可见,我国目的限制原则允许目的具有一定的宽泛性,而在处理方式与处理目的之间的关联性上,强调关联的直接性、高度紧密性。


在“宽进严出”模式下,处理目的特定性要求有所缓和,处理者可以将具有较大弹性的内容纳入其明确表示的处理目的中。不过,处理方式与处理目的之间的“直接相关性”意味着,必须将处理目的尽可能全面、完整地披露出来。如果披露不够全面、完整,那么后续处理行为即使是技术上、商业上通常所需要的,也可能因为欠缺与处理目的之间的“直接相关性”而缺乏合法性基础。


在人工智能发展和应用中,训练机器学习模型、制作标签和画像均是有相对独立性的活动,两者虽然与个性化推荐紧密相关,但是并不能被纳入后者之中。即使用户拒绝接受个性化推荐服务,其个人数据也已经被用于训练机器学习模型,其用户标签和画像也往往已经被制作完成,而且会被持续用于与其他用户数据进行关联分析,进而程度不同地影响到自身。在处理目的不够明确、内容不够完整的情况下,人工智能处理个人数据的活动便“不易察觉”“不可干预”。


按照目的明确之要求,人工智能各层次处理目的必须以通俗易懂的方式清楚表达、解释出来。而且,目的的明确最迟不得晚于个人数据收集活动发生之时。明确性要求是为了确保目的在其意义或者意图层面不模糊、不易生歧义,不带来理解上的疑问或者困难。明确性的判断主体不是个人数据处理者,而是个人数据处理的所有相关主体。只有处理目的具有明确性,才有助于透明性、可预期性的实现,才有助于避免或者减少数据主体的期待与个人数据控制者的期待之间产生不一致。经合组织《隐私保护和个人数据跨境流通指南》指出,“明确化”的方式灵活多样,无论采取何种方式都必须满足“有质量”和“一致性”的要求。企业在基于发展人工智能的目的处理个人数据时,如果对处理目的的内容没有完整披露,或者所表达的内容层次混乱、充满歧义,其便可能违反明确性要求,需要承担不利的法律后果。


在违反目的明确要求的情况下,个人数据处理者不能按照其主观意愿或者单方解释结论来决定其处理目的。必须重新解释其表达出来的处理目的,对其真实的处理目的加以实质审查。此时,应当适用或类推适用格式条款规则中的不利解释规则。亦即,当出现两种以上有关处理目的的解释结论时,应当采用对个人数据处理者不利的解释结论。例如,在涉及人工智能发展的隐私政策中,有的企业将训练机器学习模型等隐含在个性化推荐目的之后。由此可能有两种解释结论:(1)只有为了实现个性化推荐,机器学习模型训练才是符合处理目的的;(2)无论是否为了实现个性化推荐,机器学习模型训练本身便当然符合处理目的。鉴于存在不同解释结论,一般应采取不利于隐私政策格式条款提供方的解释结论。


(二)只有满足目的合理性要求才能实现“智能向善”


目的限制原则还要求处理目的具有合理性或正当性。欧盟《通用数据保护条例》第5条第1款b项规定处理目的必须是正当的(legitimate),该正当性是指符合所有可适用的数据保护法以及其他可适用的法律。换言之,“正当”是广义上的合法,是指符合所有成文法、判例法,既包括具体规则,又包括法律原则。伴随科学技术的发展、社会经济的进步,正当性的内涵也会发生改变。


我国《个人信息保护法》第6条第1款中的处理目的合理性与欧盟法上的正当性相似。要判断合理性,必须在具体的法律关系中,综合考虑个案中的全部情形,权衡各种相互冲突的利益,得出妥当结论。结合《个人信息保护法》第13条第1款第2项以下规定来说,只要具备一些重要的合法性基础,就可以同时满足形式合法和实质正当的要求。比如,紧急情况下为保护个人的生命健康处理其个人信息的,处理目的具有充分的合理性。又如,为了增进企业与其客户之间的商业联系处理个人信息的,处理目的也可谓具有一定合理性。不过,如果收集个人信息是为了挖掘出可能有用的知识,其合理性便不够充分,需要添加其他因素以补强合理性。


发展人工智能的目的是否具有充分的合理性?对此无法简单地作出肯定回答。人工智能带来的既有机遇,也有挑战和风险。如果从企业的角度来看,为增强市场预测能力、高效反馈能力而发展人工智能,无可非议。但在提高预测能力、改善商业决策的过程中,人工智能也可能带来侵害个人隐私、生成虚假信息等风险。近来,世界主要国家提出在全球治理中应坚持“智能向善”(AI for good)的宗旨。无论是训练机器学习模型,还是制作用户标签,其本身尚不符合实质正当性的要求,也就是说,其并非当然是一件“好事”。只有在发展人工智能过程中加入体现利益平衡和伦理道德的设计,才能使人工智能活动成为一项具有实质正当性的活动。在人工智能商业化应用中,如果其主要目的是通过制作标签和画像给用户分组,那么,只有在该目的同时包含追求公平等价值时,处理目的才有较充分的合理性。


综上,为了保障人工智能安全发展,应将人工智能应用中各层次目的清晰披露出来。为使各层次处理目的具备足够的合理性,必须将伦理因素嵌入其中。尤其是,在标签、画像等制作过程中必须反映公认的价值观,以使其具有公平性、非歧视性,并尊重人格尊严。


三、人工智能活动及其风险的单独告知


欧洲《108号公约》委员会在2019年通过了一份指南,为人工智能发展中的数据保护等问题提供指引。对于可能影响个人和社会的人工智能应用程序,特别是用于决策作出过程的人工智能应用程序,该公约要求,在研发和采用之时必须以保护人的尊严、维护人权和基本自由为核心关切,尤须注重保护个人数据。欧盟《人工智能法案》第5条规定了不可接受的人工智能实践,这些实践活动大多侵犯人的基本权利。例如,采用恶意操纵或欺骗的技术,损害人的知情决定权,使人作出给自身带来重大损害的决策。只有将人工智能活动及其相关风险予以单独告知,才能保障个人知情权的实现。


第一,企业处理个人信息的目的主要体现在隐私政策、用户协议等文件中,此时不应该将训练机器学习模型、制作标签和画像等内容掩盖在“提供个性化服务”“改善服务体验”背后。训练机器学习模型、制作用户标签和画像、提供个性化服务等三方面内容分别属于三项相互独立、相互关联的活动。个人在上述三个层面所能行使的决定权也有所不同。个人依据《个人信息保护法》第24条第2款可以较为自由地拒绝个性化推荐,但只能在有限范围内对标签和画像行使决定权,也难以限制企业利用已经合法收集的个人数据训练机器学习模型。换言之,即使个人拒绝某一场景下的个性化服务,其个人数据仍然可能被用于训练机器学习模型,其用户标签和画像仍然可能生成。因此,人工智能技术发展和应用中存在不同层次的个人数据处理目的,必须通过专门方式加以告知,确保个人清楚知悉其广泛的个人数据可能被用于不同处理目的,也使个人了解是否存在不可预见乃至不可控的风险。


第二,在没有明确告知相关处理目的、处理方式的情况下,处理行为便没有获得个人的真正同意,这类处理活动便缺少合法性基础。人脸识别是人工智能的应用之一。在有的案件中,企业在安装人脸识别系统后,公示用途为“视频安全巡查”,而未告知其处理目的主要是判断消费者是属于何种类型的客户(如是否近期到访),该企业的行为构成不当使用个人信息。企业在基于人工智能发展或应用目的处理个人数据时,如果未告知相关处理目的和处理方式,造成个人无法清晰认识到该处理活动的性质以及相关风险,便缺少处理个人数据的合法性基础,个人可以要求企业停止基于人工智能相关目的处理个人数据。为避免出现这种情况,制作用户标签、测算用户未来行为趋势等人工智能发展应用中的处理目的须在隐私政策中予以专门披露。此外,人工智能活动通常涉及到对敏感个人数据的处理(如智能音箱可能处理声纹数据),根据《个人信息保护法》第29条和第30条规定,应当向个人告知处理敏感个人信息的必要性以及对个人权益的影响,并获得单独同意。


第三,应当向个人告知人工智能技术发展和应用中个人数据处理的“风险”类型与内容,而非每一个处理步骤。当前,人工智能技术经常由“自我学习”(self-learning)机制驱动,在自我学习过程中即使是程序员也未必知道数据到底经过何种组合、如何被权衡和使用。中国人工智能学会发布的《中国人工智能系列白皮书——大模型技术(2023版)》指出,大模型基于深度神经网络,为黑盒模型,其工作机理仍难以理解。在实践中,将个人数据处理的每一个步骤告知个人,既不现实也不必要。反之,应该对数据处理系统及其场景进行总体审视,评估其是否会带来超乎寻常的抽象危险(abstract danger),从而在保护个人数据的前提下为人工智能技术发展留下空间。概言之,有必要将评估之后发现的个人数据处理相关“风险”类型与内容告知个人。


其实,面对日益复杂的算法,“透明性”与“准确性”之间并非截然对立的关系。所谓算法越准确,透明度就越低的观点,只适用于设计精确的游戏或其他类似的稳定环境,而不适用于充满不确定性的环境。有的研究人员在开发有关预测贷款违约的人工智能时,采用了易于理解的软件,并加入可视化技术,其开发的人工智能不仅透明,而且在预测贷款违约方面,与深度神经网络和其他复杂的黑盒子模型一样准确。人工智能商业化应用的场景是充满不确定性的场景,未来努力的方向应该是,在金融、零售、就业等各种充满不确定性的场景中,增强人工智能对个人数据使用的透明性、可解释性,一方面,满足保护个人知情权的要求,另一方面,有助于检验人工智能是否存在偏见。


《个人信息保护法》不仅规定了个人知情权规则,还规定了个人决定权相关规则,包括更正权、补充权、删除权等。在个人数据处理过程中,个人决定权的行使容易被局限在“收集”环节。因为严格地说,处理过程中的中间数据乃至最终评价数据,未必是可以识别到特定自然人的个人数据。如此一来,在人工智能应用过程中大部分个人决定权难有用武之地。然而,这种调整模式会给个人数据保护带来巨大挑战。既然人工智能有可能削弱人的自主决定,带来操纵、歧视、信息茧房等后果,就应该在一定范围内适用个人决定权规则。








请到「今天看啥」查看全文