2025年1月20日《人民日报海外版》刊登题为《当“大数据杀熟”遭遇用户“反向驯化”——数字“迷宫”中,如何寻找公平的出口?》的文章
1
,细数消费者为了对抗和“驯化”大数据及算法,使用了赛博哭穷、假装新用户、卸载重装、反向差评等千奇百怪的方法,但仍不时遭遇平台“背刺”的无奈。无独有偶,2024年年末,国家互联网信息办公室等五部门发布了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,其中明确提出将治理算法“信息茧房”“大数据杀熟”等现象,这说明监管部门已经关注并将着手解决算法歧视的相关问题。
从各种新闻报道来看,天下消费者苦算法歧视久矣,但是我们关注到实践中支持消费者诉求的案例还比较少。为什么会有这个现象?如何解决这个问题?笔者本着抛砖引玉的目的撰写本文,试图探讨在消费者保护领域通过立法和执法来破解算法歧视的路径。
1、算法歧视并不是一个严格的法律概念,在提到算法歧视时,常常将其与“公正公平”、“公开透明”等法律原则对立起来。算法歧视既用于形容算法设计时的缺陷,也用于评价算法运行后的结果。算法歧视常见于互联网平台的管理和运营过程中,同时算法作为AI三大要素之一,随着AI大模型的快速发展和AI应用的落地,我们相信算法歧视也不可避免地存在于这些AI大模型和相关应用中。
2、在实际应用方面,算法已经被广泛运用到广告、营销、金融、招聘甚至司法等业务领域。根据《互联网信息服务算法推荐管理规定》
2
的定义,算法技术包括生成合成类、个性化推送类、排序精选类、检索过滤类和调度决策类等类型。近年来,关于算法在实际运用中对特定群体或个人产生不公平对待的问题逐渐引发关注,国内国外都有一些案例反映了这一突出问题。例如,在美国,住房和城市发展部(U.S. Department of Housing and Urban Development)指控某社交网站存在广告算法歧视,即允许广告主根据用户的种族、性别、宗教等敏感信息定向投放广告导致住房、就业和信贷广告存在歧视性的问题
3
;在英国,信息专员办公室(Information Commissioner's Office)发布报告称使用人工智能招聘工具在带来便利的同时也可能会引发歧视问题
4
;在欧盟,一些欧洲银行使用的AI信贷评分系统被指控对低收入群体和移民存在歧视,导致其贷款申请被拒绝或利率更高
5
;而在中国,2020年也出现了第一例所谓大数据杀熟案件
6
。
3、由此可见,算法歧视是一个在各国都普遍存在的共性问题,且各国的监管部门都在尝试针对这一问题采取行动,以确保“公正公平”、“公开透明”等法律原则得到贯彻执行。尽管如此,我们注意到近年来消费者关于算法歧视的抱怨和声讨并未减弱,相反还有愈演愈烈的趋势,以至于出现了对算法的“反向驯化”等倡议,这反映出了消费者正不得不采用自力救济的方式来寻求公平。针对这一令人啼笑皆非的现象,我们希望探讨在消费者保护领域,如何进一步通过立法和执法来破解算法歧视。
中国有关算法歧视的立法情况 —— 以个人信息保护为主,消费者保护领域尚未见高层级立法
1、中国目前涉及算法的立法主要包括《中华人民共和国个人信息保护法》(“
《个人信息保护法》
”)、《互联网信息服务算法推荐管理规定》(“
《算法规定》
”)和一些专项执法指南、地方合规指引等。此外,诸如《GBT 35273—2020 信息安全技术 个人信息安全规范》(“
《个人信息安全国标》
”)等推荐性标准中也包含了有关算法的规定。
2、以《个人信息保护法》为例,第24条规定:“
个人信息处理者利用个人信息进行自动化决策,
应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇
。通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。
通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定
。
”从该条规定可以看出,算法歧视往往是由于算法在应用过程中利用个人信息做出不公平或歧视性的决策所导致的,算法歧视与个人信息保护密不可分。
3、此外,《算法规定》的第4条
7
、第16条
8
、第17条
9
和第21条
10
等也分别对算法的公平性、透明性以及可选择性做出了规定。值得关注的是,早在2021年,上海市场监督管理局曾出具过《上海市网络交易平台网络营销活动算法应用指引(试行)》,其中第6条至第9条对于算法的结果公平、参数设置、反歧视和差别待遇等原则给出了指导意见。
中国有关算法歧视的司法和行政执法案例 —— 支持消费者的案例仍相对较少
截至目前,尽管消费者已经被迫祭出了“驯化”算法的大招,但真正支持消费者针对算法歧视所提出的请求的案例还是较为少见的。
在我们所查询到的有关算法的民事案例中,总体可以分为如下几类:
(1)第一类“平台管理类”:以北京互联网法院数据算法十大典型案例之十的“郑某某诉北京某科技公司网络服务合同纠纷案”、案例之八的“李某诉某公司侵害名誉权纠纷案”以及浙江省杭州市中级人民法院的(2020)浙01民终6394号民事判决等为典型,法院的总体观点认为互联网平台有权根据其算法对违反法律规定和平台规则的行为进行检测、监督和处置,即便由于技术限制在此过程中发生了错误,如果能够给与消费者反馈的渠道并及时纠正,不构成侵权或违约。
(2)第二类“侵犯人格权类”:以北京互联网法院数据算法十大典型案例之五的“何某诉上海某科技公司侵害人格权纠纷案”以及广州互联网法院的(2022)粤0192民初20966号民事判决等为典型,法院的总体观点认为互联网平台在算法设计和规则设定中嵌套其主观价值和目的,不适用“技术中立”原则,在平台中发生侵犯人格权的行为时,互联网平台需要承担侵权责任。
(3)第三类“侵犯消费者权益类”:以杭州互联网法院(2020)浙0192民初2295号民事判决以及广州互联网法院(2023)粤0192民初256号民事判决为典型,前者认为不应对平台算法苛以过高要求,平台给与消费者反馈渠道可以一定程度上弥补算法的不足,后者则在审查中认为消费者的证据不足以支持其关于消费歧视的主张,因此对消费者的诉讼请求不予支持。值得特别提及的是,除了上文提到的第一例大数据杀熟案件外,在北京互联网法院数据算法十大典型案例之七的“陈某诉北京某科技公司网络服务合同纠纷案”中,法院认为互联网平台未对基于算法所产生的配送费偏差进行事先提示,需要为此承担缔约过失责任。
在行政执法方面,我们注意到曾有新闻报道监管部门介入处理了针对部分互联网平台存在大数据杀熟等情形的消费者投诉。但截至本文发布之日,我们尚未查询到针对算法歧视明确作出认定和处罚的行政执法案例。尽管如此,随着算法专项行动的开展,我们相信2025年监管部门将在解决算法歧视、算法不透明等问题上加强监督并持续发力。
(一)破解消费领域算法歧视的难点
破解消费领域算法歧视的难点主要涉及几个方面:
(1)对算法进行监管的立法仍在发展过程中,目前尚缺乏足够的精细度,尤其对于算法歧视(包括其定义和分类)的立法仍主要关注在滥用个人信息和交易价格不合理的层面。但是,即便不与个人信息相结合,有些算法设计本身就存在歧视性,或者导致的不公平并非体现在价格方面,对此也有进行规范的必要性。此外,考虑到不同的消费者群体在交易条件和交易目的等方面的确存在差异,有必要在立法层面厘清什么是“合理的差别待遇”、什么是“不合理的差别待遇”。
(2)平台和消费者在信息层面不对等、在技术水平上也不对等,因此导致消费者的举证能力非常有限,对获取信息的解读能力也受到很大限制。实践中,许多互联网平台未对算法进行公示或者公示入口非常难被识别。即便进行公示,相关公示内容非常简要,几乎对消费者理解相关算法起不到实质性的帮助作用。