专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
无锡博报生活  ·  售罄!知名茶饮品牌周边引争议 ·  昨天  
物道  ·  玉兰花开,一瞥惊鸿 ·  2 天前  
51好读  ›  专栏  ›  新技术法学

华政学报 | 程凌 平台劳动者自动化决策拒绝权实现路径的公私法协同

新技术法学  · 公众号  ·  · 2025-02-18 08:02

正文

平台劳动者自动化决策拒绝权

实现路径的公私法协同




作者简介





程凌 中国社会科学院法学研究所助理研究员,法学博士



目  次


一、问题的提出

二、平台劳动者自动化决策拒绝权的定位及与宪法基本权利的关系

三、平台劳动者自动化决策拒绝权的双重功能:私法自治与国家干预

四、私法请求权路径:注重平台劳动者个体层面的权利保护

五、公法风险规制路径:注重平台劳动者整体层面的风险预防

六、结语


摘  要


平台劳动者自动化决策拒绝权是解决平台劳动者“困在系统里”问题的必要路径。该权利作为宪法个人信息权权利束体系的组成部分,与其他宪法基本权利的实现密切相关。该权利具有双重功能,主观防御功能在于保障平台用工自动化决策的私法自治,客观价值秩序功能要求国家对平台用工自动化决策进行积极干预。相应地,该权利的实现需要私法与公法的协调配合。在私法视野下,平台劳动者以请求权的方式行使自动化决策拒绝权,权利行使须满足“仅通过自动化决策的方式作出”、对平台劳动者权益有“重大影响”两项要件,从而达到拒绝完全自动化决策、获得人工干预的法律效果,此路径注重平台劳动者个人层面的权益影响或损害救济。在公法视野下,主要通过有意义信息的强制性披露、自动化决策的风险评估与人工监控来规制自动化决策信息不对称风险及平台劳动者生命健康权、平等权等基本权利被侵害的风险,此路径注重平台劳动者整体层面的风险预防。


关键词


平台劳动者 自动化决策拒绝权

平台用工 风险规制 个人信息权


一、问题的提出



在平台用工中,算法管理是平台商业模式的固有内容,绝大多数的管理任务均实现了自动化。算法是平台组织用工的关键技术,平台通过算法自动化决策进行大规模监控与评估、任务分配、实时调度、动态定价等活动,确定劳动条件,实现相应的人力资源管理功能。算法自动化决策实现了平台的大规模组织用工活动,但是同时也致使平台劳动者“困于系统”中,影响平台劳动者生命权、健康权、平等权、劳动权等宪法基本权利保障。平台劳动者如何走出系统的困境、免受自动化决策的约束,一直是平台用工理论与实践所关注的问题。

在一般个人数据保护领域,《欧盟一般数据保护条例》(以下简称GDPR)第22条规定了数据主体“免受自动化决策约束权”,我国《个人信息保护法》第24条第3款规定了自动化决策拒绝权,该规定被认为可与GDPR第22条发挥相似的作用。2024年11月11日,《欧洲议会和理事会关于改善平台工作条件指令》(以下简称《欧盟平台用工指令》)在欧盟官方公报公布,该指令第三章“算法管理”对GDPR第22条免受自动化决策约束权的实现机制进行了具体落实。在平台用工领域,平台劳动者如何免受自动化决策的约束、如何有效实现自动化决策拒绝权,是当前尚待解决的问题,而且在域外实践中已引发争议。

在域外司法实践中,2021年意大利数据保护监管机构分别对Deliveroo、Foodinho两家平台进行罚款,认为Deliveroo平台在运用Frank算法进行任务分配、Foodinho平台运用“卓越系统”算法和Jarvis算法进行自动化决策时,没有为骑手提供GDPR第22条第3款规定的适当人工干预的措施,比如设立人工沟通渠道等。在荷兰一起涉及Uber司机被Uber算法“解雇”(停用账户)的案件中,2023年4月阿姆斯特丹上诉法院作出判决,认为根据GDPR第22条,Uber平台未有效保障Uber司机的免受自动化决策约束权,其通过匹配算法、定价算法、欺诈检测算法等进行自动化决策,对Uber司机的合同地位、收入等权益产生影响,但是平台未采取适当措施进行人工干预,未向司机提供发表意见的适当渠道。在荷兰另一起案件的上诉判决中,阿姆斯特丹上诉法院阐释了类似的观点,认为Uber平台未有效保障Uber司机免受自动化决策约束权。在英国Mr Pa Edrissa Manjang v. Uber Eats UK Ltd and others案件中,原告Pa Edrissa Manjang是非洲裔黑人,在Uber Eats平台担任送餐员,Uber Eats平台运用面部识别算法自动化决策,原告Pa Edrissa Manjang被应用程序告知每天进行多张自拍,并通过平台发来的邮件被告知永久停用平台账户,原告认为该平台的自动化决策将黑人置于不利地位,平台未有效保障自己免受自动化决策约束权,未进行有意义的人工干预,造成了歧视(间接歧视)。此外,实践中还有Uber Eats送餐骑手控诉算法因不可解释的变化降低了他们的收入,当其要求平台解释时被告知任务分配算法中没有人工控制(manual control)程序。由此可见,在域外司法实践中,如何有效保障平台劳动者的自动化决策拒绝权,是平台用工争议的热点问题。

在我国立法中,《个人信息保护法》第24条第3款规定了自动化决策拒绝权,在国内平台用工司法实践中,虽然也有众多涉及关停账户、扣除工资等案例,但是并未发现涉及平台劳动者的自动化决策拒绝权。其原因在于:一是在一般个人信息保护领域,自动化决策拒绝权的实现机制尚不明确。关于自动化决策拒绝权的实现机制,尚存在私法路径、公法路径以及混合路径的不同观点。二是平台用工相关立法文件未明确规定平台劳动者的自动化决策拒绝权。《互联网信息服务算法推荐管理规定》第17条第3款、《人力资源社会保障部、国家发展改革委、交通运输部、应急部、市场监管总局、国家医保局、最高人民法院、全国总工会关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号,以下简称人社部56号文)、《国家市场监管总局、国家网信办、国家发展改革委、公安部、人力资源社会保障部、商务部、中华全国总工会关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(国市监网监发〔2021〕38号,以下简称市场监管总局38号文)、《最高人民法院关于为稳定就业提供司法服务和保障的意见》(法发〔2022〕36号)等虽然规定平台应当完善与劳动条件相关的算法,对算法规则的制定与效力、“算法取中”等提出了要求或意见。但是,关于如何进一步规范平台用工中的算法自动化决策,尤其是根据《个人信息保护法》第24条第3款如何构建并有效实现平台劳动者的算法自动化决策拒绝权,当前立法并不明晰。

平台劳动者的自动化决策拒绝权可以保护平台劳动者免受自动化决策的约束,故能够成为解决平台劳动者“困在系统里”问题的必要路径。当前,一般职场尤其是平台用工领域的算法规制研究主要集中在宏观层面,重点涉及从劳动法规章制度、就业歧视等视角出发考察算法规则问题,仅少数研究聚焦于劳动者的自动化决策拒绝权。在平台用工领域,当前平台劳动者与平台之间的劳动关系认定尚存在争议,故从劳动法的角度为平台劳动者提供保护的空间较为有限,从数据保护法的角度为平台劳动者提供保护则为较优选择。我国《个人信息保护法》第24条第3款虽然规定了自动化决策拒绝权,但是相关研究仅限于一般个人信息保护领域,并未专门以平台劳动者自动化决策拒绝权为主题进行分析。本文聚焦于平台用工场景,以平台劳动者这一特殊群体的自动化决策拒绝权为研究对象,从该权利的定位及其与相关宪法基本权利的关系、不同的功能面向、具体的实现路径等方面展开论述。


二、平台劳动者自动化决策拒绝权

的定位 及与宪法基本权利的关系


(一)权利的定位:作为平台劳动者个人信息权权利束体系的组成部分

我国《个人信息保护法》对个人信息进行了赋权,个人信息权作为权利束包括自动化决策拒绝权、知情权、决定权、查阅权等多项权利。个人信息权由《宪法》第38条人格尊严条款推导而出,属于宪法基本权利的范畴,相应地,自动化决策拒绝权则为个人信息权宪法基本权利的组成部分。

在平台用工中,无论平台与平台劳动者之间的关系定性为劳动关系、承揽关系抑或是其他形态,平台通过自动化决策对平台劳动者都存在一定约束,平台劳动者面临主体性丧失的危机。以往劳动者在工作中享有部分自由裁量权,但是随着平台用工派单、评分评级等用工自动决策机制的应用,平台劳动者受到平台的实时监控,只能被迫执行由算法自动化决策做出的决定,其自主性被严重限缩,人格尊严受到侵蚀。在宪法中,人格尊严虽然在不同的文化背景中有不同的诠释,但是不受支配的自由是其内涵的共识。根据我国《宪法》第38条人格尊严条款的规定,国家保护平台劳动者免受算法自动化决策的支配。平台劳动者的自动化决策拒绝权保障平台劳动者人格尊严、促进自主性实现为目标,其宪法基础当然亦以《宪法》第38条人格尊严条款所推导出的个人信息权为宪法依据,并成为该权利束体系的组成部分。

(二) 平台劳动者自动化决策拒绝权与其他宪法基本权利密切关联

从平台劳动者视角出发,“困在系统里”的平台劳动者在自主性严重受限的情形下,被迫执行平台用工自动化决策系统的决定,这可能会严重影响平台劳动者生命权、健康权、劳动权、平等权等除人格尊严外的其他宪法基本权利。平台劳动者的自动化决策拒绝权旨在保护平台劳动者免受自动化决策的约束,与这些宪法基本权利的实现密切相关。

第一,平台劳动者的生命权、健康权。在职业安全卫生方面,平台用工自动化决策影响平台劳动者的生命权、健康权。生命权、健康权作为人权的重要内容,是人之为人而应当享有的权利,属于宪法层面具有优先性的权利。虽然我国《宪法》没有对生命权、健康权进行规定,但是宪法基本权利体系具有开放性,根据《宪法》第33条第3款的人权条款,生命权、健康权属于基本权利体系范畴。在平台用工领域,自动化决策与工作时间、任务量、奖惩与考核等劳动条件密切相关。在平台用工初期,平台通常以“最严算法”作为考核要求,严重影响了平台劳动者的劳动安全。根据欧盟工作安全与健康机构发布的报告,平台用工自动化决策会导致平台劳动者产生时间压力、工作强度、不安全感和社会孤立等问题,这不仅会影响平台劳动者的人身安全,还会影响其心理健康和福祉。在平台劳动者自动化决策拒绝权的实现路径中,对自动化决策系统运行的事中风险评估与人工监控则可以防止平台适用“最严算法”,通过“算法取中”的方式合理确定劳动时间、休息时间、任务量等劳动条件,进一步保障平台劳动者的生命权、健康权。

第二,平台劳动者的平等权。在平台用工自动化决策过程中,平台劳动者因为种族、照顾家人等受到歧视,其平等权受到损害。无论是意大利Deliveroo算法歧视案中罢工、照顾家人引起的工作任务分配歧视,还是英国Mr Pa Edrissa Manjang v. Uber Eats UK Ltd and others案涉及的有色人种工作机会歧视,均侵害了平台劳动者的平等权。我国《宪法》第33条、第34条、第48条等条款分别以概括性条款或者具体平等权条款的形式对平等权进行了规定。平台劳动者自动化决策拒绝权实现路径中的事中风险评估与人工监控、事后人工审查机制,可以在事中阶段评估并监控自动化决策的歧视风险以尽可能避免歧视的发生,或者在事后阶段为平台劳动者提供人工审查与救济,从而保障平台劳动者的平等权。

第三,平台劳动者的劳动权。在平台劳动者的劳动权保障方面,平台通过自动化决策暂时或者永久关停账户等行为影响了平台劳动者的劳动权。我国《宪法》第42条第1款对公民的劳动基本权利进行了规定,宪法层面的劳动者不仅涵盖了《劳动法》意义上具有劳动关系的劳动者,还涵盖了公民中不具有劳动关系的群体。同时,我国《宪法》第42条第1款中的“劳动”,不仅包含《劳动法》中劳动关系意义上的职业性劳动,还涵盖了“营业”范畴。换言之,无论平台与平台劳动者之间是否存在劳动关系,平台劳动者均享有宪法层面的劳动权。在平台用工算法管理过程中,平台通过自动化决策暂停账户、永久关停账户等行为影响了平台劳动者宪法层面的劳动权。平台用工自动化决策涉及的暂停账户、考核与奖惩内容,还会对平台劳动者的劳动条件产生严重影响。平台劳动者自动化决策拒绝权实现路径中的事中风险评估与人工监控、事后人工审查机制,可以在事中阶段评估并监控劳动条件的自动化决策,尤其是评估相关惩罚措施的合理性,或者在事后阶段为平台劳动者提供人工审查与救济,从而保障平台劳动者宪法层面的劳动权。


三、平台劳动者自动化决策拒绝权

的双重功能: 私法自治与国家干预


平台劳动者的自动化决策拒绝权是宪法基本权利个人信息权权利束体系的内容,根据基本权利的双重效力,平台劳动者的自动化决策拒绝权具有主观防御与客观价值秩序双重功能。

(一) 主观防御功能:保障平台用工自动化决策的私法自治

平台劳动者自动化决策拒绝权的主观防御功能在于防止国家不当入侵与干预,保障平台用工自动化决策领域的私法自治。在一般个人数据保护领域,GDPR第22条保护数据主体免受自动化决策约束条款,应当解读为“权利模式”还是“禁令模式”,当前尚存争议。在“权利模式”之下,数据主体以请求权的方式向数据处理者行权,以达到免受自动化决策约束的目的。数据主体可以行使抑或是不行使该权利,此为私人领域的个人自治,国家不得干预。平台用工自动化决策涉及工作任务量、工作时间、任务分配、收入、奖惩等劳动条件。当前平台劳动者与平台之间的劳动关系尚存争议,但无论两者之间是否存在劳动关系,平台劳动者都将通过平台进行工作,平台劳动者与平台双方私主体之间达成的合意并无争议。故而,平台用工自动化决策领域具有私法属性特点,国家应当保障当事人之间的私法自治。

在平台用工领域,相关的自动化决策如果对平台劳动者产生重大影响,根据我国《个人信息保护法》第24条第3款,平台劳动者有权通过请求权的方式向平台行使自动化决策拒绝权,避免受平台用工自动化决策的约束。当然,平台劳动者可以向平台行使该权利,也可以不行使该权利,平台劳动者享有选择自由,这体现了平台劳动者权利保护的个人主义,国家不得干预或者迫使平台劳动者行权。此为平台劳动者自动化决策拒绝权的主观防御功能。

(二)客观价值秩序功能:对平台用工自动化决策进行国家干预

平台劳动者自动化决策拒绝权的客观价值秩序功能在于要求国家介入平台与平台劳动者之间的不对等关系,对平台用工自动化决策进行积极干预,保障劳动条件的设定符合社会国原则,促进平台劳动者生命权、健康权、平等权、劳动权等宪法基本权利的实现。

第一,平台用工自动化决策领域需要进行国家干预。在一般个人信息领域,如果将GDPR第22条保护数据主体免受自动化决策约束条款解读为“禁令模式”,则国家原则上禁止完全自动化决策,数据处理者仅在特殊例外情形下方可进行自动化决策。此体现了国家积极干预的公法规制色彩,目的在于防止保护不足。平台用工算法具有一般算法的黑箱特点,信息不透明使得平台与平台劳动者之间的力量严重失衡,并进一步影响平台劳动者的权益保障。在平台用工领域,我国虽然为平台用工自动化决策提供了私法自治的空间,但是由于实践中涉及平台用工自动化决策的问题突出,国家出台了一系列的规范性文件进行指导。这些指导文件虽然具有软法色彩,但是相关内容体现了国家对平台用工算法治理的积极干预。比如,人社部56号文提出督促平台在制定或者修订涉及相关劳动条件的算法时充分听取工会或者劳动代表的意见,并告知平台劳动者;市场监管总局38号文提出不得将“最严算法”作为平台劳动者的考核要求,应当通过“算法取中”的方式确定任务量、配送时间等劳动条件。国家的这些积极干预措施旨在增加算法自动化决策的透明度,保障平台劳动者的劳动条件,矫正平台与平台劳动者的权力失衡。

第二,平台用工自动化决策的国家干预须符合社会衡平理念,注重弱者保护与社会正义。国家在平台用工算法管理领域的积极干预措施,目的在于确保平台用工自动化决策所形成的劳动条件有利于对劳动者弱势方的保护。一方面,无论平台劳动者与平台之间的劳动关系为何,平台均对平台劳动者进行了一定程度的技术性约束。虽然在劳动法层面是否可以评价为从属性尚存争议,但是对于平台劳动者的弱势地位以及权利保护缺位应无争议,况且平台劳动者对平台存在或多或少的从属性或者经济依赖性。因此,国家应当对平台劳动者予以积极性的保护措施,确保劳动条件符合社会主义国家原则。在德国社会国原则的发展过程中,虽然其内涵具有不确定性,但是德国著名的社会法学者Hans F. Zacher指出,国家对于经济上或经济导致的社会关系,加以评价、保障及变更,以保证个人人格尊严之生存,减少贫富差距,消除或控制从属的依赖关系。换言之,具有从属性或者依赖性的关系具备国家积极干预的正当性。相应地,国家对于弱势群体,尤其是对具有从属性依赖关系的群体应当予以积极扶助与保护。我国《宪法》第42条第2款规定“国家通过各种途径……加强劳动保护,改善劳动条件”。如前所述,《宪法》第42条可以涵盖不具有劳动关系的群体,由此,该条款当然可涵盖平台劳动者这一弱势群体。换言之,对于平台劳动者的劳动保护与劳动条件,国家应当予以积极干预并承担保护义务。

另一方面,平台运用自动化决策的行为涉及平台的财产权与营业自由等权利,这些权利的行使须承担社会任务。在平台用工中,平台通过相关信息收集与处理生成的数据具有财产价值,平台对相关数据的利用、交易等活动属于宪法层面财产权的范畴;同时,平台通过算法管理应用程序或者自动化决策系统设定平台劳动者的劳动条件,此属于平台营业自由的范畴。但是,平台这些权利的行使并非完全自由、没有界限。在公法理论体系中,社会国原则为基本权利的行使设定了界限,即财产权等权利的行使须承担社会任务。在自由权的向度下,宪法财产权、营业自由等权利的主观防御功能要求排除国家的干预,但是在社会国原则的要求下,这些权利的行使如果不符合社会正义,尤其是未考量弱势群体的权益时,国家须承担积极的干预义务。因此,平台用工算法的使用特别是通过自动化决策产生的劳动条件,应当符合社会衡平理念,注重社会正义与弱者保护。


四、 私法请求权路径:注重平台劳动者

个体层面的权利保护


个人信息保护需要贯彻公私法融合的思维,与之相似,平台劳动者自动化决策拒绝权的实现亦需要公私法的协调配合,具体而言,一方面需要保障平台用工领域的私法自治,尤其需要保障平台劳动者通过私法请求权的方式行使权利,矫正平台用工自动化决策中平台劳动者个体层面问题;另一方面,国家针对平台用工自动化决策的风险进行积极干预,矫正自动化决策系统运行前与运行过程中(即事前与事中阶段)的信息不对称并进行风险评估与人工监督,注重平台劳动者整体层面的风险预防。

在私法视野下,平台劳动者自动化决策拒绝权以请求权的方式,请求平台以作为或者不作为的方式保障平台劳动者不受自动化决策约束的权利,实现个体层面的自我保护。我国《个人信息保护法》第24条第3款规定了自动化决策拒绝权的行使要件,包括自动化决策的决定“仅通过自动化决策的方式作出”“对个人权益有重大影响”两项。关于平台劳动者自动化决策拒绝权行使要件的界定,须考量平台用工的特殊场景,而关于平台劳动者行使自动化决策拒绝权的法律效果,则须结合平台用工自动化决策的不同阶段进行分析。

(一) 平台劳动者自动化决策拒绝权行使要件的厘定

1.平台用工场景下“仅通过自动化决策的方式作出”的多因素考量

关于我国《个人信息保护法》第24条第3款规定的“仅通过自动化决策的方式作出决定”的内涵,可参考GDPR第22条第1款“完全通过自动化方式做出的决策”的界定。完全自动化决策意味着个人无法对决策的结果施加任何实质性影响,判断的核心在于是否存在有意义的人工干预。在平台用工自动化决策的相关案件中,平台通常会主张进行了人工干预。那么,如何判断平台所主张的人工干预是有意义的,抑或人类的参与必须达到何种程度才是有意义的?欧盟第29条工作组认为,可从以下方面进行考量:第一,人类对决策的所有监控均是有意义的,而非仅是橡皮图章;第二,负责人工干预的人员必须具备改变决策结果的相应能力与权限;第三,在人工干预的分析过程中应当考量所有相关数据因素。

在平台用工自动化决策案件中,法院或者数据保护机构对自动化决策中是否存在有意义的人工干预进行了分析,具体包括以下考量因素:

第一,关于人工参与是否为橡皮图章。在荷兰Uber司机诉Uber算法关停账户案件中,Uber司机因被算法“解雇”(关停账户)而对平台提起诉讼,案件核心问题之一为Uber“解雇”(关停账户)的决定是算法还是人工作出的。Uber提出,因欺诈而关闭账户的决定是由EMEA运营风险团队(以下简称风险团队)至少两名人员在一致决定的基础上作出的。但是,在该案件的审理过程中,法院认为Uber并未有力证明其主张,尤其是该案中风险团队没有充分考量所有相关数据因素。对于风险团队的工作人员在收到ERAF软件欺诈信号后是由人工还是自动化决策作出的相关分析及决定,Uber未进行有力举证,因而无法判断工作人员的行为是否仅是纯粹的象征性行为,故法院未支持Uber的主张。在意大利数据保护监管机构对Foodinho、Deliveroo外派配送平台的罚款案件中,关于“卓越”评分等自动化决策系统,无论是预设参数还是后续的参数调整都需要人工参与,意大利数据保护监管机构指出,对算法的参数进行必要的设置并不能排除完全自动化决策。换言之,此时的人工参与并不具有意义,仅为橡皮图章。

第二,关于人工干预人员的资质与水平。在荷兰Uber司机诉Uber算法关停账户案件中,法院指出Uber未证明风险团队的工作人员的资质与知识水平。《欧盟平台用工指令》第10条第2款对自动化决策人工监督中的工作人员的能力、培训、权限进行了概括性规定,要求工作人员应当具有推翻自动化决策的能力,并且不得因此受到不合理待遇。

第三,关于人工干预是否考量了所有相关数据等因素。在荷兰Uber司机诉Uber算法关停账户案件中,法院指出Uber的风险团队总部位于波兰克拉科夫,虽然Uber主张其工作人员对涉嫌欺诈的个案进行了实际人工调查,但是在未听取三名司机各自意见的情况下,这一主张难以令人信服,因而,就这三名Uber司机而言,法院认为关闭账户是通过完全自动化决策做出的决定;同时,针对该案另一名司机的特殊情况,因为风险团队在作出人工决策之前,与司机进行了对话,考量了司机意见这一因素,因此法院认为就该司机而言风险团队的人工干预是有意义的。

2.对平台劳动者权益有“重大影响”的综合判断

根据我国《个人信息保护法》第24条第3款的规定,自动化决策拒绝权行使的另一要件为“对个人权益有重大影响”,但当前立法并未规定该要件的具体内涵。与之相类似,GDPR第22条第1款规定自动化决策拒绝权的行使要件之一为对数据主体产生“法律效果或者类似重大影响”。关于该要件的具体内涵,相关学者指出,该要件是指自动化决策改变、塑造或者以其他方式(部分或者全部)决定一个人的合法权利或者义务,或者对数据主体的福利产生严重不利影响。欧盟第29条工作组认为,一方面,在法律效果层面,自动化决策影响数据主体的合法权利,或者对数据主体的法律地位或者合同相关权利产生影响;另一方面,在类似重大影响方面,自动化决策虽然未影响数据主体的法律地位或者合法权利,但是其产生的影响重大,以至于与法律效果相似,甚至可能严重影响有关数据主体个人的情况、行为或选择,对数据主体产生长期或永久的影响,抑或在最极端的情况下,导致个人的排斥或歧视。具体到劳动法领域,对劳动者个人权益有重大影响的事项涉及就业机会、工作内容、报酬收入、安全卫生等内容,而且其判断具有一定的弹性。具体的判断需要区分不同场景、结合数据主体情况进行个案分析。

在平台用工实践中,针对相关自动化决策是否对平台劳动者产生“法律效果或者类似重大影响”,法院、数据保护机构进行了分析与阐释,对平台劳动者权益有“重大影响”的判断具有重要的参考意义。综合而言,包括以下方面:

第一,自动化决策影响平台劳动者的法律权利或者地位。一方面,自动化决策影响平台劳动者的合同地位。在荷兰Uber司机诉Uber关停账户案件中,阿姆斯特丹上诉法院指出,Uber关闭司机账户的行为是永久性的,其终止了与Uber司机的合同关系,这表明自动化决策对平台劳动者产生了法律效果,影响了平台劳动者的法律地位。另一方面,自动化决策致使平台劳动者面临行政处罚或者刑事指控。在上述案件中,阿姆斯特丹上诉法院进一步指出,Uber检测欺诈算法的自动化决策结果可能导致平台劳动者面临刑事或者其他方面的指控,这足以表明自动化决策将会对平台劳动者产生重大影响。在荷兰Ola与平台司机的自动化决策数据访问权争议案中,Ola“欺诈概率评分”这一自动化决策系统的评分是基于乘客提出异议成功后重新计算车程费用的频率和次数以及同一账户的账单被重新计算的次数。“欺诈概率评分”可分为“可疑”分数和“不可疑”分数,仅供Ola内部员工专门监控某些司机,并对司机行为和可靠性进行风险预测分析。法院认为,“欺诈概率评分”对司机有重大影响,因为这个分数决定了Ola是否会对司机采取进一步措施。如果该得分为负数,则意味着对司机的严重指控,这可能会产生其他严重的后果,例如向运输监管机构报告和吊销出租车牌照。

第二,不仅注重自动化决策对平台劳动者的直接影响,亦考量其可能的间接影响。在荷兰Ola与平台司机的自动化决策数据访问权争议案中,法院指出,Ola“收入画像”自动化决策系统将平台司机分类以提供特殊派单,使司机可以获得比常规更多的补贴,此分类是根据各种参数建立的,比如每周登录时间、平台司机的“接单率”,而且平台会定期更新和调整参数。法院认为,对某一群体的这种定性或分类的结果在相当大程度上影响了平台司机的经济收入,因为这影响了他们的订单、价格,以及他们是否有资格享受特殊优惠。在荷兰Uber司机与Uber自动化决策数据访问权争议案中,关于Uber“司机综合评级系统”,法院指出,虽然评分是乘客给出的,但是Uber通过该系统将评分统计结合,得出司机的平均评分,该系统的自动化决策可能会成为关闭司机账户的原因,从而间接对司机产生重大影响。

第三,考量对平台劳动者影响的长久性、持续性。在荷兰Uber司机与Uber自动化决策数据访问权案件中,阿姆斯特丹上诉法院指出,Uber关闭平台劳动者账户的影响具有永久性而非暂时性,就此而言,一方面,Uber平台的自动化结果影响了平台劳动者的机会,劳动者无法通过Uber平台获得劳动收入,导致平台劳动者无法收回平台劳动者的投资成本;另一方面,平台劳动者可能面临刑事或者其他方面的指控。在荷兰Ola与平台司机的自动化决策数据访问权争议案中,法院对Ola“欺诈概率评分”自动化决策系统作出了相似的阐释,认为该自动化决策系统会对平台劳动者产生持续性的影响。

第四,在平台劳动者的权益方面,着重考量对平台工作机会与工作收入的影响。在荷兰Uber与平台司机自动化决策数据访问权争议案中,Uber“派单匹配系统”是Uber用来匹配司机和乘客的自动化决策系统,该系统首先将最近的司机和乘客分组,然后在组中确定最优匹配,以尽量减少整个司机和乘客群体的等待时间。阿姆斯特丹上诉法院认为,“派单匹配系统”不仅会导致司机与乘客的供需匹配,还可能导致司机收不到订单或者收到订单的频率降低,进而影响司机通过Uber平台完成的接单量与收入。因而,Uber“派单匹配系统”对Uber司机产生重大影响。此外,在该案中,Uber“预定价系统”是一种自动化决策系统,Uber平台通过该系统根据客观因素,比如请求乘车的时间和预期持续时间、实时的供需比例、预期的交通状况和日期,提前计算出乘车价格,而且Uber在确定车费时使用动态定价,法院认为“预定价系统”对车费定价进行自动化决策,而每个订单的定价都决定了司机的收入,同时多个连续订单的定价作为整体将会对司机产生重大影响。

(二) 法律效果:停止完全自动化决策与人工干预

平台劳动者以私法请求权的方式行使自动化决策拒绝权,确保自动化决策中人工干预的介入,进而保障平台劳动者在个案情形下自身不受自动化决策约束的权利。

第一,不同法域自动化决策拒绝权的法律效果差异检视。GDPR第22条对自动化决策拒绝权(免受自动化决策约束权)进行了规定,关于该条文的阐释,有观点认为该条赋予了数据主体免受自动化决策约束的权利,即“权利说”,有的观点则认为该条是对自动化决策的禁止,即“禁令说”。“权利说”抑或是“禁令说”虽然均具有一定的合理性,但是两者具有不同的法律效果。在“禁令说”立场下,法律一般性禁止对数据主体进行完全自动化决策,数据处理者需要进行主动的人工干预,此为数据处理者的一般性积极义务,无须数据主体以履行请求权的方式行权,即可达到要求数据处理者进行人工干预的法律效果。在允许数据处理者进行完全自动化决策的特殊例外情形下(GDPR第22条第2款),数据处理者方可进行完全自动化决策,此时,数据处理者还须承担设置保障措施的积极义务。在“权利说”立场下,自动化决策的人工干预法律效果部分依赖数据主体,以履行请求权的方式实现。

我国《个人信息保护法》第24条第3款规定,个人有权拒绝信息处理者仅通过自动化决策的方式作出决定。针对该条文,相关观点指出其采取了自动化决策结果拒绝权的模式。亦有观点认为该条款采取了自动化决策方式拒绝权的模式,应当从事前与事中的方式拒绝、事后结果拒绝等方面进行考量。从该条款的文义解释出发,我国《个人信息保护法》第24条第3款自动化决策拒绝权应当不仅包含事后阶段的自动化决策结果之拒绝,还包括事前与事中阶段的自动化决策方式之拒绝。

第二,平台劳动者自动化决策拒绝权在自动化决策不同阶段的法律效果:停止完全自动化决策与人工干预。在事前与事中阶段,平台劳动者行使自动化决策拒绝权,一方面表明平台劳动者请求平台不得(事前阶段)或者暂时停止(事中阶段)完全自动化决策;另一方面,如果平台后续需要进行数据处理,该权利的行使意味着平台劳动者请求平台在自动化决策中进行人工干预。就此,我国《个人信息保护法》第24条第3款以及第44条均可成为请求权的基础。在平台用工实践中,平台劳动者自动化决策拒绝权的行使主要通过自动化决策的知情同意机制(事前阶段)、选择退出机制(事前与事中阶段)来实现。

在事后阶段,平台劳动者行使自动化决策拒绝权,意味着平台用工完全自动化决策的结果暂时不生效,同时平台劳动者请求平台对完全自动化决策的结果进行解释、人工审查,我国《个人信息保护法》第24条第3款为请求权的基础。在事后阶段,平台用工完全自动化决策的结果如果没有对平台劳动者造成特定的损害后果或者产生重大影响,在当前算法透明度不足、自动化决策信息严重不对称的情形下,平台劳动者事后通常难以行使自动化决策拒绝权。在平台用工完全自动化决策的结果导致平台劳动者权益受到损害时,比如涉及算法解雇(暂时或者永久关闭账户等)、算法派单歧视、面部验证无法登录等情形,结合前述平台劳动者完全自动化决策拒绝权的权利行使要件,平台劳动者方可具有行使权利的可能性。实践中,在事后阶段,平台劳动者自动化决策拒绝权的行使主要通过申诉机制来实现。

总体而言,平台劳动者自动化决策拒绝权的私法请求权路径强调平台劳动者权利保护的个人主义,尤其注重解决平台劳动者的个人权益影响或者个人损害。在平台与平台劳动者力量极其不对等、群体结构性不平等但是个体难以察觉等情形下,仅通过个人私法请求权的路径难以有效保障平台劳动者自动化决策拒绝权的实现。


五、 公法风险规制路径:

注重平台劳动者整体层面的风险预防


基于个人信息权的宪法基本权利性质,平台劳动者自动化决策拒绝权作为个人信息权权利束体系的组成部分,其客观价值秩序功能要求国家承担积极的保护义务,对于平台用工自动化决策中平台与平台劳动者的不对等关系进行干预,防止产生不利后果。在平台用工自动化决策广泛应用的背景下,如前所述,自动化决策可能会产生不准确乃至非法的决策或者输出,进而影响平台劳动者的人格尊严、生命健康权、平等权、劳动权等宪法基本权利。不过由于平台与平台劳动者之间的信息严重不对称等情况,上述影响或者问题难以被平台劳动者个体所察觉,仅易在平台劳动者整体层面被发现,比如派单和薪酬歧视涉及的平等权问题、任务量和工作时间等涉及的劳动安全问题等。尤其是生命权、健康权、平等权属于具有较高价值位阶的宪法基本权利,同时,这些宪法基本权利在平台用工场景下进一步与平台劳动者的劳动权相结合。为了落实宪法基本权利的国家保护义务,矫正平台与平台劳动者之间的信息不对称,防止平台用工自动化决策对平台劳动者在整体层面产生个体不易察觉的损害,国家应当在事前与事中阶段对平台用工自动化决策进行积极干预,保障平台劳动者自动化决策拒绝权的实现。

在公法规制层面,主要通过事前阶段平台用工自动化决策有意义信息的强制性披露,来规制平台与平台劳动者之间的信息不对称风险;通过事中阶段平台用工自动化决策的风险评估与人工监控,来规制平台劳动者的生命健康权、报酬权、劳动权等被侵害的风险。

(一) 平台用工自动化决策的告知:有意义信息的强制性披露

在平台用工领域,由于自动化决策缺乏透明度,平台劳动者数据的处理及相关决策风险不断增加,但是劳动者对此难以知晓,这进一步模糊了平台的责任,使得平台劳动者难以行使相关权利。平台劳动者自动化决策拒绝权的实现,尤其是在事后阶段对自动化决策的结果拒绝、异议及人工审查请求权的行使,有赖于事前阶段增强自动化决策的透明度,强化平台劳动者对自动化决策相关信息的知情。由此可知,平台用工自动化决策信息的强制性披露尤为重要。

1.告知的内容:由笼统模糊化转向有意义的具体化

当前,我国平台用工自动化决策的信息告知仍然存在模糊化的问题。在一般的个人信息处理方面,我国《个人信息保护法》第17条规定了个人信息处理的具体告知规则,但是该条仅以一般的个人信息处理为规范对象,并未专门针对自动化决策规定具体告知内容。与之相类似,《互联网信息服务算法推荐管理规定》第16条虽然明确规定了算法推荐服务提供者应当以显著方式,告知其提供算法推荐服务的情况,但是并未明确规定告知的具体内容。具体到平台用工场景,人社部56号文第10条规定,关于制定修订进入退出、订单分配、计件单价、抽成比例、报酬构成及支付、工作时间、奖惩等直接涉及劳动者权益的制度规则和平台算法,要督促企业将相关内容结果进行告知。该规定虽然对平台用工自动化决策的告知内容进行了一定细化,但是,该规定仅明确平台将“结果公示并告知”平台劳动者,并未涉及自动化决策的具体信息。此外,该规定仍然较为抽象,而且仅具有“督促”“指导”性质,并不具有强制性。总体而言,当前立法并未明确规定平台用工自动化决策的具体告知内容,平台用工自动化决策的告知信息笼统模糊化,存在信息披露不足抑或无意义信息冗余的问题。

平台用工自动化决策的告知内容应当有意义且具体化,就此,域外进行了相关立法探索。GDPR第13条第2款(f)项、第14条第2款(g)项明确规定,在自动化决策情形下,数据控制者应当向数据主体提供相关信息,包括自动化决策数据处理中的逻辑关系、处理的意义以及预期结果等信息。《欧盟平台用工指令》第9条第1款则对平台用工场景下自动化决策的告知内容予以进一步具体化。此外,2019年《意大利拉齐奥地区数字工作者的保护和安全规定》第6、第7条规定平台应确保算法的透明度,提供算法相关信息。具体而言,关于平台用工自动化决策的告知,有意义的具体信息告知应当符合以下标准:

第一,告知平台用工自动化决策系统的运行存在。《欧盟平台用工指令》第9条明确规定,平台应当明确告知自动化监控系统与自动化决策系统正在使用或者正在进入的事实。检视我国平台用工相关文件,人社部56号文、市场监管总局38号文等并未明确规定必须告知平台用工自动化决策系统的运行存在。在此方面,我国相关立法须进一步完善。

第二,告知平台用工自动化决策的逻辑关系、意义以及预期后果。GDPR第13条第2款(f)项、第14条第2款(g)项规定,数据控制者应当向数据主体提供自动化决策数据处理中的逻辑关系、处理的意义以及预期后果等信息。根据GDPR的透明度要求,第29条数据保护小组认为关于自动化决策的简单提及抑或是复杂描述甚至完整算法的披露,均可能不符合有意义的标准,而且无法达到让数据主体理解的目的;相反,数据处理者提供的信息应当准确、透明、易于理解、足够全面,以便数据主体理解相关决定作出的原因。在透明度方面,《欧盟平台用工指令》第9条规定的信息告知详细程度远高于GDPR。该条明确规定,平台应当告知自动化监控系统与自动化决策系统的具体活动或者决策类别,包括自动化监控系统的监控和评估等活动类别、自动化决策系统的主要参数与决定类别以及相关逻辑关系,如相关参数在决策中的比重、平台劳动者的行为对自动化决策的影响方式、不利后果的理由等内容。此外,《意大利拉齐奥地区数字工作者的保护和安全规定》第6条规定,为保护平台劳动者的健康与安全,平台应当提供关于算法确定服务需求与提供之间匹配的方式、平台劳动者的评级验证程序等方面的信息。

关于平台用工自动化决策的告知内容,我国当前立法仍存在模糊化的问题,后续立法可参酌域外的相关经验,规范平台用工自动化决策的告知内容,从模糊化转向有意义的具体化。

2.告知的对象:由平台劳动者单一主体迈向多元主体

平台劳动者自动化决策拒绝权的保障,不仅依赖于平台劳动者个人对自动化决策信息的知情,还需要平台劳动者代表、工会等多方主体的参与。工会、平台劳动者代表作为信息告知的对象,可在以下方面发挥作用:第一,在集体层面发现平台劳动者作为个体难以察觉的影响或者损害。平台用工自动化决策可能会产生不准确乃至非法的决策或者输出,这些问题难以被平台劳动者个体所察觉,但是在总体层面容易被发现,如派单、薪酬等歧视问题。工会或者平台劳动者代表作为信息告知的对象,有利于从集体层面解决隐蔽性的损害或者不利影响。第二,解决平台劳动者个体维权成本高的困境。平台劳动者个体虽然受到影响或者损害,但考虑到个体维权付出的时间、精力等成本,平台劳动者个体可能会面临维权成本高的压力。工会、平台劳动者代表可通过协商等方式提供纾困措施,因此工会或者平台劳动者代表当然且应当成为信息告知的对象。第三,减轻平台劳动者的信息过载的压力。平台劳动者个体需要知晓与劳动条件相关的自动化决策信息,但是,目前实践中笼统模糊的自动化决策告知方式,使得平台劳动者的信息过载问题突出。平台劳动者从冗杂的信息中获取并访问相关信息需要具备一定的技术知识,在此方面,工会或者平台劳动者代表相较于平台劳动者个体更具有集体优势。

在平台用工自动化决策的告知对象方面,GDPR并未就工作场所中涉及的工会、平台劳动者代表等问题进行规范。但是,《欧盟平台用工指令》第9条明确规定,平台的告知对象不仅应当包括平台劳动者,还应当包括平台劳动者代表。西班牙第9/2021号皇家法令(RDL 9/2021,以下简称《西班牙骑手法》)第1条涉及劳动者代表的知情权,规定“任何公司的工作委员会均有权在适当情况下,定期由公司告知影响任何决策的算法或人工智能系统的参数、规则和指令,这些决策可能对工作条件、获得和维持就业产生影响,包括剖析。”这项义务适用于所有类型的公司(无论是否基于平台)和所有类型的部门,这意味着平台劳动者代表亦是平台用工自动化决策的告知对象。

在告知对象的多元化方面,我国亦进行了探索。我国2021年修订的《工会法》第3条第2款规定,新就业形态领域的平台劳动者有权参加并组织工会,为平台劳动者自动化决策拒绝权的行使提供了进一步保障。人社部56号文第10条虽然规定公示告知的对象为平台劳动者,但是在平台告知劳动条件自动化决策信息之前,需要听取工会、平台劳动者代表的意见建议,而两者提出意见建议的前提为知晓自动化决策的相关信息。因此,人社部56号文第10条表明,工会、平台劳动者代表应当作为平台用工自动化决策的信息告知对象。市场监管总局38号文第2条、第7条的逻辑与之相类似,其重要的功能在于通过工会的参与,保障平台劳动者对劳动条件自动化决策信息的知情权。但是,如前所述,人社部56号文、市场监管总局38号文仅具有指导性,不具有强制性。关于平台用工自动化决策的信息告知,告知对象须涵盖包括平台劳动者、平台劳动者代表在内的多元化主体,此方面的规范化尚待立法进一步落实。

(二) 平台用工自动化决策的风险评估:人工监督的嵌入

在平台用工领域,平台劳动者自动化决策拒绝权涉及平台劳动者的生命权、健康权、平等权等高位阶的宪法基本权利,为了防止平台用工自动化决策对平台劳动者在整体层面产生个体不易察觉的损害,在自动化决策运行的事中阶段,须在劳动条件自动化决策的风险评估中嵌入人工监督,其意义在于,在自动化决策运行的事中阶段进行风险评估与人工干预,预防相关风险。







请到「今天看啥」查看全文