专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
销售与市场  ·  投入上千万,商超巨头扎堆拜师胖东来 ·  2 天前  
知识分子  ·  常春藤名校是如何摧毁美国的? ·  3 天前  
51好读  ›  专栏  ›  新技术法学

郑戈:人工智能伦理的机制设计 | 中法评 · 专论

新技术法学  · 公众号  ·  · 2025-02-05 19:49

正文


按语



近年来,人工智能技术正在持续取得重大突破:Resnet解决了梯度退化和消失问题,使深度神经网络的训练效果大为增强;GAN算法的成熟带动了深度合成技术的全面成型;Transformer架构基于并行注意力机制堆叠出庞大架构,为BERT等大模型的出现奠定基础;Decoder-only的路线孕育了GPT系列大模型,生成式人工智能由此笙歌鼎沸;RAG技术使大模型与特定知识密切结合,催生了日益强大的领域模型;MoE架构和MTP方法等新技术的加入使大模型开始突破“规模竞赛”的壁垒,转向“内涵式发展”。向量数据库、测评基准、开源框架等的高速演化,更使得整个人工智能生态欣欣向荣,而不可估量的蓬勃生机与不可胜数的不确定性风险将持续共存共生。


在人工智能迅猛发展的背景下,人工智能法治已成为全球范围内万众瞩目的议题。欧盟《人工智能法》的制定和美国多州人工智能立法实践广受关注,国内人工智能立法进程也在稳步推进。2024年5月,国务院办公厅印发《国务院2024年度立法工作计划》,将“人工智能法草案”列入预备提请全国人大常委会审议项目,这也是该法连续第二年列入国务院立法计划预备提请审议项目。同时,不同版本的人工智能法专家建议稿亦已陆续发布或形成,产生了广泛的社会影响。然而,人工智能法治中的许多关键问题仍然有待深入研究:人工智能立法应当采取何种框架?如何保障人工智能技术和产业的负责任、可信任发展?如何确保人工智能模型的认知和表现符合人类的价值观?如何在法治轨道内保障人工智能要素的高质量、有效率供给?这些都是人工智能发展与治理所必然面对的关键问题,也是人工智能立法需要研究和解决的基础性议题。


为此,中法评专门组织了本期 “人工智能前沿法治研究” 栏目,共向读者呈现四篇论文。


郑戈 《人工智能伦理的机制设计》 一文借助经济学中机制设计理论所提供的分析框架,从激励兼容、显示原理和实施机制三个方面梳理人工智能伦理从潜在性向现实性转化的动力机制。


苏宇 《人工智能法律治理的框架选择:从“分类分级”到“模块组合”》 一文深入技术底层,力证人工智能立法不宜采取分类分级式框架,避免产生高昂的错误划分成本及陷入单纯的风险治理进路,主张采取模块组合式框架以紧密扣合人工智能自身的发展规律和技术特性。


韩旭至 《大模型价值对齐的法治进路》 一文主张大模型价值对齐的理念应从绝对安全转向合理成本的模型安全,从单一维度规制转向共建共享的合作治理,并提出了一系列旨在促进价值对齐目标合理设置和实现的机制设计。


赵精武 《论人工智能训练数据高质量供给的制度建构》 一文结合促进科技创新所遵循的协同治理方式,建议从满足不同科技创新主体需求和塑造实质公平的科技创新资源配置两个方向出发,建构层次化、多元化的训练数据高质量供给保障体系。


四篇论文所讨论的主题均在人工智能法治研究中举足轻重,在研究进路和行文手法方面各擅胜场,而其主要论点和论证之间还存在精彩的火花碰撞,可以启发读者对相关问题作进一步的深入探索。我们期待人工智能法治研究不断攻坚克难,为我国乃至全球范围内的人工智能法治建设准备扎实而丰厚的理论支持。




郑戈

上海交通大学凯原法学院教授


到目前为止,关于人工智能伦理的学术和政策讨论仍然沿袭了传统科技伦理的路径,以提出“以人为本”“科技向善”等抽象伦理原则为主要形式,而缺乏实施这些原则的有效机制。本文借助经济学中机制设计理论所提供的分析框架,从激励兼容、显示原理和实施机制三个方面梳理人工智能伦理从潜在性向现实性转化的动力机制,以期为负责任、可信任的人工智能技术和产业的发展提供一个可操作的理论模型。




本文首发于 《中国法律评论》2025年第1期专论二(第48-62页) ,原文21000余字,为阅读方便,脚注从略。如需引用,可参阅原文。 购刊请戳这里。



目次


引言

一、机制设计理论在人工智能伦理中的可适用性

(一)什么是机制设计
(二)机制设计理论如何破解社会困境
(三)机制设计理论对经典伦理学中两个主要方法论立场的澄清

二、激励兼容

三、显示原理

四、实施理论

结论

1.人工智能伦理的激励相容定理(定理Ⅰ)
2.人工智能伦理的显示定理(定理Ⅱ)
3.人工智能伦理的实施定理(定理Ⅲ)



引言


人工智能伦理是当下引起广泛关注的热点话题,但正如大多数热点话题一样,这个领域存在话语泛滥而实施机制太少的困境。从国际组织到各国政府,从行业协会到单个企业,从技术专家到人文社科学者,大家都在提出各种各样的人工智能伦理原则,但很少有人关注如何让这些原则落地的问题。原因也很简单:提出原则很容易,也显得很高尚,而一旦面对实施机制,就会陷入异常复杂的现实考量,包括但不限于:


(1)严重的信息不对称,作为数据、算法和算力的实际掌控者,研发和部署人工智能技术的企业不仅远远比个人而且比政府掌握着更多的信息,它们是信息的操纵者和数字权力的行使者。就连刚性的法律规则的实施都因为信息不对称而不得不以“平台责任”的形式发包给企业,更遑论柔性的、引导性的伦理。


(2)伦理原则本身适用于人工智能技术时的适用复杂性,传统伦理原则是以人的自主性为出发点的,人因为有自由意志而应当对自己的行为负责,这是伦理责任的前提。但人工智能技术的特点是即使它的设计者也无法控制它的“行为”,它的“行为”是在“机器学习”中不断演进的,更不用说它的使用者是在它的注意力诱导机制的作用下、在各种“暗模式”的操纵下使用它的。人的自我认识越来越多地依赖以人工智能为内核的数字镜像,受困于“信息茧房”、“过滤气泡”或“回音室”而不自知,或自知而心甘情愿,毕竟它带来了生活便利和情绪价值。


人工智能镜子是一种数字化工具,它从过去人类生成的数据中提取统计模式,并将其投射到未来的预测、选择、分类和组合中。它可能会导致我们过度依赖其预测和判断,从而削弱我们自己的思考和决策能力。它能够反映人类的价值观和道德观念,但它本身并不具备道德判断能力。这意味着人工智能镜子可能会放大人类的不道德行为和偏见,而我们需要依靠自己的道德判断来纠正这些问题,但这需要每一位使用者的道德自觉,这对普通人来说似乎是一种过高的要求。


(3)责任归属的复杂性,传统伦理中,具体的人是主要的道德主体,责任明确。但在人工智能场景下,责任界定变得复杂。如自动驾驶汽车发生事故,是汽车制造商、软件开发者、车主还是人工智能系统本身的责任难以判定。进而,人工智能在某些情况下可独立做出决策,如医疗资源分配系统根据算法决定资源分配,这引发了对其道德自主性的思考。传统伦理中,人类凭借自由意志和道德判断做出决策,而人工智能的决策基于数据和算法,这对传统道德决策机制提出挑战,促使人们重新审视道德决策的本质和来源。


从现有的关于人工智能伦理的法学研究来看,上述难题已经得到了充分的认识和揭示。比如,沈岿提出了人工智能伦理的“实效赤字”问题。实效赤字指的是人工智能伦理规范在实际应用中未能达到预期效果的现象。具体而言,尽管有大量的伦理规范被制定出来,但它们并没有被广泛遵守和实施,导致伦理风险依然存在。这种现象表现为伦理规范的实际效果与其预期效果之间的差距。


他分析了实效赤字出现的原因,包括:(1)非强制执行性:人工智能伦理规范通常不具有法律约束力,企业或个人自愿遵守的动力不足;(2)抽象性和模糊性:许多伦理规范过于抽象和模糊,缺乏具体的实施指南,导致难以有效执行;(3)分散和混乱:不同主体(如政府、企业、行业组织等)制定的伦理规范不统一,导致合规困难;(4)自愿遵守动力不足:在经济利益的驱动下,企业和开发者可能更倾向于追求商业利益,而忽视伦理规范;(5)合规性问题:技术实现伦理规范可能存在困难,导致合规成本高昂;(6)社会系统论困境:不同社会系统之间的沟通和影响有限,导致伦理规范难以在各个系统中有效实施;(7)发展压倒约束的宿命论:人工智能技术发展速度快于伦理规范的制定和实施,导致规范难以跟上技术发展的步伐。


他还提出了以软法机制来解决实效赤字问题的具体措施,包括:(1)组织机制:建立持续推动伦理规范实施的组织,可以是政府、企业或第三方机构,这些组织负责监督和推动伦理规范的实施;(2)合规压力机制:通过行业标准、市场压力等增加遵守规范的压力,促使企业和开发者主动遵守伦理规范;(3)合规激励机制:提供经济或其他激励措施,鼓励企业遵守伦理规范,例如通过认证、奖项等方式表彰合规企业;(4)技术方法论机制:开发具体的技术手段来实现伦理规范,如通过数据隐私保护技术、算法透明度工具等;(5)基准机制:建立统一的伦理规范基准,减少不同规范之间的混乱和不一致;(6)软硬法互动机制:软法与硬法相互配合,通过法律手段增强伦理规范的实施效果。


李学尧在一系列文章中首先指出了人工智能伦理的主流方法是源自生物医学伦理中的“原则主义”,从医学伦理中的尊重患者自主权、不伤害、有利和公平四大原则中发展出了“增进人类福祉、反偏私和公平、准确性、透明度和参与性、可解释性、保护隐私、可追责”的七原则说或者“可信、安全和负责任人工智能”的三原则说,或者在生物医学伦理四原则基础上加上“可解释性”的五原则说。他还分析了人工智能与生物医学之间存在的各种差异导致沿袭医学伦理思路存在很大的问题。


他所提出的解决问题的思路都是从法学本位出发的,包括:(1)总体性的方案是实现人工智能伦理的“法化”,法化是社会道德、宗教伦理等社会规范被法律化的过程。这里他所建议的具体方法是考夫曼的“事物本质”分析法,即透过法律形式的表象去分析法律所要保护的实质性利益是什么,从而使法律规范与生活事实保持一致。采用这种方法可以把包括伦理在内的多元规范纳入法律思维和法律判断之中。(2)借助比例原则缓和原则与规则间的矛盾,将应用伦理学与法学无缝融合。(3)制定专门的人工智能伦理立法,使其区别于生物医学伦理立法,可以作为人工智能法的专章。


上述学者的研究在对问题的描述上符合目前的社会共识,但所提出的解决方案仍然是回到自己学科的传统路数上。遗憾的是,学者们提出的应对革命性的信息技术的方案却未能考虑信息分布和信息成本问题,更没有提出让信息技术在其中发挥作用的方案,就好似想用套骡子的缰绳拴住千里马。实际上,驾驭千里马的方式是理解它的习性,它的行为激励,通过设计适当的激励机制使它的自利行为所追求的目标(超过其他所有的马)恰好吻合于驾驭者的目标(让自己的马跑赢其他所有的马),并在此过程使用奖惩机制使它不至于成为脱缰的野马。


出于对制度无法适应技术发展这一根本问题的担忧,神经网络算法之父、图灵奖和诺贝尔物理学奖得主杰弗里·欣顿(Geoffrey Hinton)在最近的一次演讲中指出:“人类目前的最大问题是:旧石器时代的脑子,中世纪的制度,神一样的技术。”他所想要表达的观点是:人类已经发明出了自己无法控制甚至无法理解的技术。


人脑是模拟系统,神经元活动类似数字信号但本质是模拟的,以低功耗方式运作,信息无法直接共享,个体之间通过语言表达共享知识,带宽有限,通常每秒几比特。而人工智能依赖晶体管,在指令级别执行操作,消耗大量能量,将所有信息以“0”和“1”的编码形式进行处理,可快速交换同步海量权重,数量级可达数万亿比特,知识共享带宽和效率更高。为了控制这种比人类的信息处理能力和决策能力更强的工具,人类依靠的还是起源于农业时代的伦理和法律,试图以简单的、线性结构化的命令—规则形式来限定其使用的目的、范围和效应,但这种努力注定是失败的。


伦理是对人的实践活动做出道德评价的社会机制,其本身是实践理性的一部分。一种号称伦理的话语体系会出现“实效赤字”,这本身就说明它不是伦理,而是关于伦理的一套修辞。正如苏力所言:“专注于法言话语虽然重要,但容易错失实在的法律争点。对于法律语言而言,重要的是想‘事’,深入体察和理解具体争议中的事实及语境,比较各种不同法律应对的可能后果,不仅仅是对‘词’的思考。”


法律如此,伦理更是如此。康德早已指出,人类的一切有意识的活动都是伦理活动,即符合或不符合道德并因此得到评价的活动。人类实践理性就是伦理:“实践理性是自由的领域。如果说理论理性的法则是自然法则,那么可以说实践理性的法则乃是道德法则。”他还进一步说:“实践理性优越于理论理性,是因为唯一能使这个世界获得意义和价值的,不是人的认识能力,而是人的实践能力。”一套脱离实践的伦理说辞,对实践无法产生影响就不足为奇了。


出于对这些根本性问题的担忧和思考,本文脱离现有人工智能伦理讨论的俗套,不去关注和梳理现有的伦理原则以及如何将这些原则以代码的形式进行表述从而使之内化到算法之中(价值对齐)的方案,而是在接受人工智能技术的现有状态及其应用形态的事实前提下,借助经济学中的机制设计理论,提议一种有信息效率的、可落地的人工智能伦理的形成和实施机制。


机制设计理论在人工智能伦理中的可适用性


(一)什么是机制设计


沈岿和李学尧都指出了人工智能伦理所面对的个人和企业自觉遵守伦理规范的动力不足这一问题,但所提出的解决方案都带有伦理法律化的倾向。实际上,法律本身的实施也面临同样的问题:自觉遵守的动力不足。两位学者的预设是:既然自觉遵守的动力不足,那就增加规范的刚性和强制性。但法律的实施需要关于规范和事实两个维度的信息,如此方可“以事实为根据,以法律为准绳”地施加法律后果。规则制定权的集中化、规则本身的明晰化以及规则实施强度的增加只能解决一个维度的问题,而关于事实的信息才是数字技术对法律和伦理提出的根本挑战。


在算力、算法和数据三个维度都占有相对于政府(更不用说相对于个人)的明显优势的数字科技企业,有足够的能力和动力来营造合法合规的表象,而在实际操作中则完全以自身利益为出发点。政府本身的数字化所依靠的基础设施都是由数字企业所提供的,比如电子政务依托的阿里云等云服务、智慧法院或数字法院所借助的讯飞自然语言处理技术、疫情期间作为基本管理措施的健康码所依托的阿里支付宝平台以及行程码所依托的腾讯微信平台等,都使得政府自己获取信息的能力相较于作为监管和执法对象的数字平台企业而言远远落后。


而人工智能伦理的意义,恰恰是试图补足法律实施的短板,以社会分布式计算的方式来获取信息,从而在一定程度上使人工智能技术和服务的供给方能够在追逐私利的过程中不至于完全罔顾公益。将人工智能伦理“法化”,恰好与这一目标背道而驰。


在承认“私人信息”普遍存在并且是信息分布事实之主流的情况下设计出激励兼容的机制,让信息占有者愿意主动公布信息,并且使其追逐私利的行为能够促进社会公共利益,这恰好是经济学中的机制设计理论旨在实现的目的。机制设计理论作为现代经济学和博弈论中的重要分支,起源于对经济活动中信息不对称和激励问题的深入研究。在现实经济环境中,参与者往往拥有不共享的私人信息,这会影响资源的有效配置和社会福利的实现。


机制设计理论旨在通过设计合理的规则和机制,引导参与者在追求自身利益的同时,实现总体目标的优化。由于信息不对称也是人工智能伦理所面临的最大问题,各种主体都在提出自己的伦理原则并宣称遵守了这些原则,而监管者和外部观察者很难获取做出判断所需的信息,合伦理性判断的公共信息极度缺乏,在这个私人信息(尤其是企业信息)主导的领域,机制设计理论首先具有直观上的可适用性。


波兰裔美国经济学家里奥尼德·赫维茨(Leonid Hurwicz)在1960年的一篇文章中研究了信息在经济系统中的传递效率,提出了如何在信息分散的条件下实现资源的最优配置。他指出,信息效率是衡量经济机制有效性的重要标准。这篇文章为机制设计理论奠定了基础,探讨了在自由选择和分散决策的条件下,如何设计经济机制以实现既定目标。赫维茨提出了经济机制设计的核心问题:如何在信息不对称和个体自利行为的情况下,设计出能够实现社会目标的机制。


在1972年的一篇论文中,他首次提出了作为机制设计理论核心要素的激励兼容(incentive compatibility)概念,为分析自利且对自身利益拥有不公开的私人信息的个体如何实现共赢的合作提供了一个经济学模型。他的开创性工作使得经济学家能够从一个全新的角度思考如何在信息不对称的情况下设计有效的经济制度,为资源配置问题提供了系统性的解决方案。


激励兼容原则对我们思考人工智能伦理问题有直接的帮助。沈岿用“实效赤字”这个概念准确概括的这个领域的研究者基本都观察到了的人工智能伦理的实效性问题,其实就是一个激励兼容问题。数据是人工智能的生命线,获取数据(包括个人信息以及受知识产权法保护的内容数据)并以此来训练人工智能已经成为普遍的开发策略和商业模式。提出越来越严格的个人信息保护方面的法律和伦理要求一方面不符合企业的内在激励,如果严格执行甚至会使人工智能无从发展并扼杀整个产业;另一方面也不符合需求方(用户)的内在激励,绝大多数用户其实更在意的是享受到好用的、能带来便利的个性化服务,同时防止自己的个人信息外溢,即超出特定服务的场景而被用于其他场合。


在这个意义上,一个激励兼容的伦理价值其实是数据安全,即企业确保自己所获得的用于提供特定服务的数据不外泄。就此而言,所有的数字科技企业其实都有动力去确保数据安全,以安全保隐私和个人信息其实已经是一个导致纳什均衡状态的伦理原则。本文第二部分还将以网络暴力所涉及的伦理问题为例来进一步说如何发展激励兼容的人工智能伦理原则。


罗杰·迈尔森(Roger Myerson)提出并发展了机制设计理论的第二个核心要素,即显示原理(revelation principle),表明任何一个机制的任何均衡结果都可以通过一个激励相容的直接机制来实现,这里的直接机制是指参与者直接报告自己的相关信息,而不需要通过复杂的策略性行为来间接传达信息。比如通过拍卖规则的设计来使拍卖过程中的虚假报价不符合出价者自己的利益,而真实报价不仅符合出价者的利益,也促进了所有竞价者的共同利益。显示原理对人工智能伦理的启示是,应当发展出某种机制来促使人工智能产品和服务的提供者直接报告自己所遵循的伦理原则,而不是对外宣称一套自己没有也不打算遵循的伦理原则,防止“伦理洗白”现象。这是本文第三部分将进一步讨论的问题。


除了与迈尔森合作发展了显示原理以外,艾瑞克·马斯金(Eric Maskin)对机制设计理论的第三块基石即实施机制或实施理论(implementation theory)作出了决定性贡献,该理论的最核心部分是纳什均衡实施的充分和必要条件,即“马斯金定理”(Maskin’s Theorem),该定理为机制设计提供了数学基础,证明了在什么条件下可以通过机制设计实现社会目标。他还构造了“马斯金对策”(Maskin’s Counter measure),用于证明充分条件。马斯金定理的核心内容可以表述为:


1.充分条件:如果一个社会选择规则满足单调性(Monotonicity)和无否决权(No Veto Power),那么它可以通过某种机制在纳什均衡中实现。


(1)单调性:如果某个社会选择在一种偏好配置下是最优的,且在另一种偏好配置下其相对其他选择的排序没有变差,则该社会选择在新的偏好配置下仍然是最优的。


(2)无否决权:如果某个社会选择被几乎所有参与者认为是最优的,那么它应该被选中。“无否决权”旨在确保在社会选择规则的实施过程中,没有任何单个个体能够单方面阻止一个被广泛接受的结果。当个体数量达到三个或更多时,“无否决权”条件更容易满足,因为个体的影响力被稀释,难以单方面决定结果。


2.必要条件:如果一个社会选择规则可以在纳什均衡中实现,那么它必须满足单调性。


此外,马斯金的研究明确了机制设计的适用范围,即重复博弈。一锤子买卖中不存在机制设计,只有策略行为,囚徒困境是其常态。在重复博弈中,通过设计适当的机制(如声誉机制或惩罚机制),可以实现社会目标,即使参与者在短期内有背叛的动机。这一命题的核心在于利用长期互动中的激励兼容性,通过设计机制引导参与者在长期互助中采取合作行为,从而实现社会最优结果。任何制度化的机制,包括法律和伦理,都是长期重复博弈中沉淀下来的符合激励兼容性的机制。人工智能的研发和应用(无论是商业模式还是社会公共应用)都是典型的重复博弈,由于算力的培育、算法的打磨和数据的积累都需要大量的资金和人力投入,短期行为在这个领域并不常见,这为伦理的可适用性创造了条件。


(二)机制设计理论如何破解社会困境


人工智能伦理所面临的“实效赤字”问题其实是一个经典的社会困境问题。社会困境是指一种情境,在这种情境中,个人的利益与集体的利益存在冲突。这种冲突的核心在于,个人往往倾向于追求短期的自我利益,而如果所有人都这样做,最终会导致集体利益的损害,从而使每个人的利益受损。简单地说,就是个人获利而损害在社会中扩散的困境。看得出来,社会困境就是对所有伦理难题的经典表述,如果每个人都选择对社会有利而从长期来看对自己也有利的行为方式,那就不存在任何伦理难题了。我们可以把社会困境表述为:


1.设想一种情境,在其中每一个人都面临一种选择:是选择社会合作性(或利他主义的)行动X,还是选择自利的行动Y。


2.几乎所有的人都会选择生活在一个所有的(其他)人都做X而不是Y的社会。换句话说,没有人喜欢生活在一个所有人都自私的世界。


3.但是,所有的人都会因为做Y而获益。换句话说,不管其他人怎么做,我都宁愿生活在一个我有自由/权利做Y的世界。


这个表述可以使我们清楚看到:伦理难题其实是一个公共信息和私人信息的分布问题,也是一个信息成本问题,即社会获得对个人行为进行伦理评价所要付出的成本的问题。伦理是对行动者的行为是否符合社会公共利益做出评价的社会机制。在这种评价所需的信息由集中的公权力部门来搜集成本更低的时候,它可以转化为法律。而当这种评价所需的信息由分散的社会群体(比如职业共同体、学术共同体或邻里、村社等)来进行分布式搜集和处理成本更低的时候,它就不能转化为法律。这就是本文反对将人工智能伦理“法化”的理由。


当人们抽象地讨论伦理问题的时候,每个人都愿意占据“道德制高点”,提出一些冠冕堂皇的、不管自己愿不愿意践行的伦理原则,这一点我们在网络“键盘党”的表现那里看得很清楚,也使我们不得不反思提出抽象伦理原则的意义。而当人们在事关自身利益的事情上做出选择并采取行动时,却往往采取自利的行动,无论这种行动是否会造成负的外部性:损人不利己者少有,损人利己者则只是常人。原因在于公开的伦理主张是公共信息,每个人都可以看到,而正如富勒所言:恶行总是惧怕公开,因为公开会使其失去隐蔽的保护,从而暴露在公众的监督和伦理的“审判”(评价)之下。


所以,损人利己的行动者一般都会伪装自己的行为,至少掩盖其中的损人面向,是为伪善。公然作恶的人总是极少数。对此,法国17世纪思想家弗朗索瓦·德·拉罗什福科(François de La Rochefoucauld)在《道德箴言录》中有非常经典的表述:“伪善是恶向善的致敬。”这样,我们就看到,表面上无解的道德困境问题,一旦我们找到了信息的公开性/私密性这个关键点,似乎就找到了打开它的钥匙。至此,前面的表述可以修改为:


1.设想一种情境,在其中每一个人都面临一种选择:是选择社会合作性(或利他主义的)行动X,还是选择自利的行动Y。无论做出何种选择,相关信息都是公开的,即被其他人所知晓。


2.几乎所有的人都会选择生活在一个所有的(其他)人都做X而不是Y的社会。换句话说,没有人喜欢生活在一个所有人都自私的世界。


3.同时,所有的人不会因为做Y而获益,因为这会导致其声誉受损,愿意与其交往并促成其获利的人递减。换句话说,“人人为我,我为人人”成为每个人的自利选择,兼容私利和公益的状态成为常态。


马克思所说的“应当公开耻辱,使耻辱更加耻辱”便是抓住了恶因为隐秘而变得普及这一问题的关键,利用批判的武器来揭露它,而那些认为光是批判没有建设性的人显然轻视了人民群众的力量:恶一旦公开就再无容身之地。当然,现实永远达不到最优状态,并不存在一个人人具有上帝视角的全透明社会,从现状出发在边际上一点一点地去改善它是人类的努力可以获得的次优解。


机制设计理论就为我们寻找这种次优解提供了一种可行的方案。在私人信息普遍存在的情况下,让私人信息的掌握者不全是伪善,也不全是不追求私利的天使,就要找到一种让其愿意直接披露自己实际做法的机制,在披露的时候它也就必然部分符合了伦理要求,这个机制的具体内容我们将在以下几节展开论述,但其实施后所达到的社会总体伦理状态可以表述为:


1.设想一种情境,在其中每一个人都面临一种选择:是选择社会合作性(或利他主义的)行动X,还是选择自利的行动Y。无论做出何种选择,相关信息都不会是完全私密的;对社会的影响越大,保持私密性的可能性就越低。


2.几乎所有的人都会选择生活在一个所有的(其他)人都做X而不是Y的社会。换句话说,没有人喜欢生活在一个所有人都自私的世界。


3.同时,所有的人都需要在X和Y之间做出权衡,找到一个兼容X和Y的效用函数U(X,Y),并据此来行动。


(三)机制设计理论对经典伦理学中两个主要方法论立场的澄清


法律和伦理判断都是基于充分信息的判断。越是抽象层面的决断,其所需要的信息量越少,所以康德在书斋里通过哲学玄思的“方法”就可以提出统摄一切伦理原则的终极原则,即“绝对律令”:“要这样行动,使得你的意志的准则任何时候都能同时被看作一个普遍立法的原则。”这相当于是把“己所不欲,勿施于人”这一伦理学上的“黄金准则”提升到了“钻石等级”:如果你认为你的行为所依据的伦理原则无法成为所有人都会接受的普世原则,那就别做这种行为。


如此高的要求常人当然是做不到的,而康德本人恪守这一原则的方式就是尽量减少社会生活而沉入哲学玄思:“有两样东西,人们越是经常持久地对之凝神思索,它们就越是使内心充满常新而日增的惊奇和敬畏:我头上的星空和我心中的道德律。”结果是,实践理性变成了不实践的理性。越是有道德感的人行动越是审慎,越是倾向于沉浸于对社会造成的扰动越少越好的私人内心生活,而越是没有道德感的人越肆无忌惮地参与社会生活并以损害社会的方式为自己获取利益。


体现民间智慧的“宁可得罪君子,不可得罪小人”也是从另一个侧面展现了同样的原理:得罪君子不会有任何不利后果,而得罪小人你就惨了,比如春秋时期,宋国大将华元因疏忽未分羊肉给车夫羊斟,导致羊斟怀恨在心,在战场上故意将华元送入敌阵,致使宋军大败。


所以,康德主义的道义论(deontological ethics)伦理学对个人由自治而生义务和责任的强调以及对行为之社会后果的故意无视实际上会导致非常恶劣的社会后果。不幸的是,它仍然是如今人工智能伦理话语中的主流,以至于一部从对技术和经济现实的深刻理解出发来讨论互联网未来发展的另一种可能道路的著作都试图以“康德均衡”(人能够理性地认识到互利共赢才符合自己的长远利益并选择合作而达致的均衡)来取代“纳什均衡”(从人的自利性出发描述策略行为达致的均衡)。


殊不知,纳什均衡才是直面现实来考虑务实的改进措施的理论,机制设计就是以纳什均衡为基础模型而提出可操作的促进合作的方案的。而“康德均衡”只适合作为一种教育理念,而且只有当它能够影响社会上大多数人的时候才能发挥正面作用,否则率先按照这种理念来行动的人就会成为吃亏的君子。


从机制设计理论所强调的信息分布问题的角度来看,康德主义的伦理学是无视信息问题,他假定人人都是享有理性自由(Vernünftige Freiheit)的道德立法者,而理性的运作是玄思性的,无须获得关于经验现实的信息。与此相反,大卫·休谟和亚当·斯密的伦理学则认为人的道德判断基础是情感而非理性。在《人性论》中,休谟宣称自己证明了“单靠理性从来无法驱动任何意志的行动”,单靠理性也“永远无法反制激情对意志的引导”。


亚当·斯密则创造性地引入了“公正旁观者”(impartial spectator)这个概念作为推演其基于同情的伦理学的基点。这个公正旁观者内在于每一个人,它使我们能够站在他人的角度考虑问题,也能评判我们自己的行为,但它不是一个道德立法者,而是通过参与他人的感情来理解自己应当如何对待他人、对待处在社会关系中的每一个人。


虽然斯密的公正旁观者是通过“人同此心,心同此情”的想象来理解他人的,但这个概念已经蕴含了伦理作为社会机制的出发点,即不是单方面地提出绝对化的原则或命令,而是要有一个能够既在行动者之内又在其外的观察视角,通过获得关于经验事实的信息来做出伦理判断。


与康德的道德立法者相比,公正旁观者的视角才是人工智能伦理机制应当采取的视角。这个视角下的人工智能伦理体系首先能够同情式地理解人工智能的所有参与者(从开发者、投资者、部署者、生产者、服务提供者到研究者和用户)的利益诉求,并因此将激励兼容作为系统目标之一。


其次,它能够理解参与者不愿意共享私人信息这一事实,以此为前提设计出的机制一方面包容隐私和个人信息,另一方面又要引导其私人信息所涉及的行为有巨大溢出效应(社会影响大)的行动主体(主要是数字科技企业)主动披露信息。


最后,此视角下的人工智能伦理体系并不强求伦理原则的统一,恰恰相反,它将多元主体提出的体现多元价值的伦理原则视为公共信息的一部分,通过适当的机制设计,比如监管部门审查或行业自查,这些公共信息可以作为要求行动主体披露证明其行为符合其公开承诺所需之私人信息的依据,毕竟诚信是公认的伦理原则之一。


激励兼容


1.什么是激励兼容


激励兼容是机制设计中的一个核心概念,指的是在一个机制中,所有参与者的最优策略(在给定其他参与者行为的情况下,最大化自身利益的策略)与机制设计者所期望的行为一致。换句话说,激励兼容意味着参与者没有动机去撒谎或操纵信息,因为诚实报告自己的真实信息(如偏好、成本等)是他们的最优选择。在机制设计中,激励兼容性通常与博弈论中的纳什均衡或占优策略均衡相关联。如果一个机制是激励兼容的,那么在该机制下,参与者选择诚实报告自己的信息是一个均衡策略。


2.如何设计激励兼容的机制


设计激励兼容的伦理机制通常涉及以下几个步骤:


(1)明确目标和约束条件,而目标和约束条件都应当足够明确和具体,不能用“美”或“善”这一类形容词来表述,否则无法确定各参与者为了达到目标所可能采取的行为类型和范围。


(2)确定参与者的策略空间,即获取参与者可以采取的行动或报告的信息。


(3)设计一个将参与者的策略投射到结果上的互动机制。机制设计理论的开创者们讨论的最多的机制是拍卖,而在伦理中,一次性竞标的机制显然是不适用的,长期互动过程中参与者策略外显于结果中的机制才是有针对性的。针对这种情况,应该有一个公共机构来搜集、分析和处理参与者外显于结果中的伦理选择信息,尤其是关于大型平台企业的信息。相对于起草伦理原则和在不掌握充分信息的情况下做伦理审查的伦理委员会,这种充当“公正观察者”角色的机构更有意义,而我国已有的机构比如数据局或大数据中心,完全可以承担这样的任务。


(4)验证激励兼容性,设计者需要通过数学分析或博弈论工具验证机制是否满足激励兼容性。通常,这涉及证明在给定的机制下,诚实报告是参与者的占优策略或纳什均衡。


(5)调整机制以满足激励兼容性。


3.网络暴力治理中的激励兼容机制设计


网络暴力显然是一个法律和伦理相互辅助方可解决的问题,而且是社会公众普遍关心的问题。遗憾的是,对于网暴这种人们深恶痛绝的数字社会常见现象,很少有学者指出它和人工智能的关系,更遑论从人工智能伦理的角度对其加以讨论了。而人工智能伦理的讨论,大多只停留在抽象原则的层面上,却无法处理现实生活中人工智能适用场景里的伦理问题。实际上,网暴(当然是无意识地)利用了几乎所有的人工智能算法,而应对网暴的技术方案也蕴涵于其中,包括但不限于:


(1)自然语言处理(NLP)算法:主要用于文本分类,识别文本类型;情感分析,判断文本的情感倾向;实体识别,即识别文本中的人名、地名等。平台企业部署这种算法主要是为了吸引流量,由于极端言论和负面消息更能引起“吃瓜群众”的关注,这也间接辅助了网暴,同时帮助了网暴者进行“人肉搜索”。但同样的算法也能帮助平台识别恶意言论、负面或攻击性内容以及帮助追踪网暴者,识别其参与度、影响力以及相应的责任。


(2)机器学习算法,包括监督学习(通过标注数据训练模型,识别恶意内容)和无监督学习(从未标注数据中发现异常行为或言论模式)。


(3)深度学习算法:卷积神经网络(CNN):处理文本和图像,识别恶意内容;循环神经网络(RNN):处理序列数据,如聊天记录,识别恶意言论。


(4)图神经网络(GNN):分析社交网络中的用户关系,识别恶意行为传播路径。


(5)异常检测算法:识别用户行为的异常模式,如大量发送攻击性言论。


(6)推荐算法:分析用户兴趣,推送相关内容,可能无意中放大恶意言论。


(7)强化学习算法:动态调整内容审核策略,优化恶意内容识别和过滤。这些算法共同作用,既可能被滥用,加剧网暴问题;也可以帮助识别和应对网络暴力。技术是“双刃剑”在这里体现得淋漓尽致,而伦理的作用就是要引导技术用于善的目的。讨论人工智能伦理问题,却不讨论如何利用人工智能去实现伦理,仿佛伦理是外在于技术的一张皮,这当然会导致伦理的“实效赤字”。“用魔法才能打败魔法”,这句体现民间智慧的话在这里也完全适用。


在原则层面没人会公开支持网暴,但在现实中参与网暴的是成千上万的普通人。社交媒体等数字平台企业以注意力机制为核心的商业模式客观上助长了网暴的泛滥,虽然其主观上对网暴采取的是无所谓的态度。而政府的舆情处理机制以防止舆情失控、维护社会稳定为目标,对网暴受害者不仅无法及时保护,在“真相”未能澄清前反而常常以处罚网暴受害者平息事态为操作手段,这是恶性循环的激励兼容,不是向善向上的激励兼容。要理解其中的逻辑,并通过伦理和法律手段有效治理网暴,我们需要理解网暴事件中各方的明确目标和约束条件。


我国《网络暴力信息治理规定》中“网络暴力”的定义是:“通过网络以文本、图像、音频、视频等形式对个人集中发布的,含有侮辱谩骂、造谣诽谤、煽动仇恨、威逼胁迫、侵犯隐私,以及影响身心健康的指责嘲讽、贬低歧视等内容的违法和不良信息。”第33条规定:“依法通过网络检举、揭发他人违法犯罪,或者依法实施舆论监督的,不适用本规定。”网络暴力之所以如此普遍,其原因主要在于:


(1)网民的言论很难受到线下空间中的社会规范的约束。当我们进行面对面的对话和交流的时候,所有社会化的成年人都会有基本的分寸感和限度感,如果动辄阴阳怪气、冷嘲热讽或者爆粗口,必然会导致群体排斥和谴责。而到了网络空间,一方面匿名或化名注册变得十分普遍,即使有实名认证,个人身份信息也仅为平台所知,不为平台的其他用户所知。另一方面,即使某用户用的是真名,在微博这样的开放性社交媒体平台,评论者与被评论者、转发者与被转发者也并不处在同一个“圈子”或“共同体”之中。这使得靠同仁评价和群体压力等声誉机制来实施的社会规范难以发挥作用。


(2)网络空间的发言毫无成本,动动手指就可以。在前网络时代,言论为公众所知需要撰写可以公开发表的文章,文章的作者自称笔者,他需要付出相当的努力来打磨自己的文笔、积累自己的知识储备,而他写出来的文章还需要经过编辑的挑选,即使决定采用也需要经过编校和修改,公共言论的成本是很高的。但到了网络时代,尤其是社交媒体(Web2.0)时代,发表公共言论变得轻而易举,发言者也被笑称为“键人”、“触生”或“鼠辈”。


由于发言的成本太低,绝大多数的网络言论实际上既不呈现事实,也不提供知识,只是发言者的情绪宣泄。比如2022年上海女士打赏快递小哥200元被网暴导致自杀事件中,本来是作为暖心的正能量故事来报道的一则疫情期间互帮互助的新闻,却遭到众多网民的冷言冷语,大多数是说200元的打赏太少了。这一类言论基本上是不过脑子的,只是评论者自身负面情绪的宣泄,从法律的角度看也不构成诽谤或侮辱,但却给心地善良而敏感、十分在意社会评价的当事人造成了难以承受的伤害。


(3)实施网暴者不仅不会产生罪恶感,反而往往有虚幻的道德优越感,自以为是站在道德高地上对他人进行评判。这在认知心理学上可以被看成是盲点效应和自我肯定效应两种认知偏差结合的产物。盲点效应是指人们看不到(或不愿承认)自己的错误,但更容易看到(或更愿意指出)别人的错误。自我肯定效应是指无论你做出了何种选择,你都倾向于认为这种选择是对的,哪怕客观事实证明你是错的。对自己的缺陷或错误文过饰非,对别人的失误无限上纲上线,这是每一个不通过自我教育和道德修养来提升自我精神境界的人都会有的自然倾向,而网络平台给这种倾向的宣泄提供了空间。


对于为网暴提供了言论基础设施的平台而言,改善“用户体验”,增加用户“黏着度”是其主要考量。而网暴事件显然吻合于这一激励,因为“看热闹不嫌事儿大”是普通网民的普遍心态。因此,设计人工智能算法来识别热点话题(其中包括大量蕴含网暴的话题)符合它们的商业逻辑,比如微博热搜在许多网暴事件中都起到了推波助澜的作用。资本没有教育功能,能赚钱的方法都是利用人的弱点(比如虚荣,比如让人有机会发泄怨气),而不是引人向善。除非我们能够自觉自愿地听取不同意见,将开放式社交媒体作为自我教育的平台,否则信息“茧房效应”是难以避免的。这不是法律干预可以解决的问题,伦理在其中本应发挥主要的作用,但令其发挥作用的前提是有一个激励兼容的负反馈机制。而这个机制的启动需要政府的介入。


就目前而言,政府应对网暴的机制除了尘埃落定之后的司法救济(有时包括刑事制裁)措施外,便主要是舆情响应机制。网信办、新闻办、信访办和应急管理部门是负责舆情监测和响应的关键部门,此外各政府部门中基本都有负责舆情响应的专班或专人。由于舆情响应的主要目标是平息事态维护稳定,所以造成的实际效果是“闹得动静越大,回应越快越狠”,有时包括处罚网暴受害人。因为在数字化生态中借助人工智能制造假新闻、假视频、假图片的成本越来越低,要靠完全澄清真相后做出公正的处理要么是完全不可能的,要么是成本过高而不得不放弃的,所以在或然性条件下将合理怀疑的指针指向哪一方就成为一个价值选择问题。维稳逻辑必然导致对网暴受害人不利的结果:你毕竟是孤零零的一个人,掀不起什么风浪,而你的加害者是为数众多的人。


在这种情况下,各个参与方就形成了一个正反馈的闭环。所谓正反馈,是指系统的反馈信号与输入信号极性相同,即反馈信号增强了输入信号,导致系统的输出进一步偏离平衡状态。这种机制通常用于放大系统的某些特性,但也可能导致系统失稳。例如,多米诺骨牌的连锁反应就是一个典型的正反馈例子,每一块骨牌的倒下都会触发下一块更大的骨牌倒下,最终导致系统崩溃。这个时候,政府应当充当其中的负反馈触发点,而触发的原则就是伦理:在真相不明的情况下强力介入保护弱势方。


在控制论中,负反馈是指系统的反馈信号与输入信号极性相反,即反馈信号减弱了输入信号,导致系统的输出趋向于平衡状态。负反馈机制是维持系统稳定性的关键,它通过不断调整系统的输出,使其接近预定的目标值。例如,当人试图拿取桌上的水杯时,眼睛会不断观察手与杯子的距离(反馈信号),大脑会根据这一信息调整手的移动方向,直到手拿到杯子为止。


对于网暴事件而言,政府的舆情响应部门应该做的不是通过帮助网络暴民达到目的来平息事态,而是要求平台在前台(用户界面)删除汇集网暴的信息流,而在后台(服务器)保留相关数据以便为事后的事实查明和法律处置保留证据。实际上,只要了解网络暴力的道德心理学机制,就会知道处理网暴受害人非但不会平息事态,反而会助长网暴蔓延,得逞的“暴民”很快就会投入另一场网暴。因为他们不是真正关心某个人或某件事,而是一方面跟风凑热闹,另一方面越来越冷漠。要使负反馈机制得以启动,我们还需要借助机制设计中的另一个要件,即显示原理。


显示原理


显示原理是机制设计中的一个重要理论,它表明任何机制的设计都可以转化为一个直接的、激励相容的机制,且在这个直接机制中,参与者只需如实报告自己实际上的偏好(私人信息),而不需要采取复杂的策略。这个直接机制能够产生与策略性博弈相同的均衡结果,并且在这个直接机制中,如实报告类型是参与者的最优策略(激励兼容)。


显示原理的提出者们最初设想的情境是拍卖,在其中可以通过竞拍程序以及叫价和定价机制的设计使得如实报价成为参与者的最优选择,而策略行为变得损人不利己。比如,以一个修改后的第二价格拍卖,在这个拍卖中,获胜者需要支付第二高出价者的两倍。这个拍卖有一个占优策略均衡,即每个竞标者出价为其估值的一半。根据显示原理,我们可以构造一个直接机制,在这个机制中,竞标者只需如实报告自己的估值,拍卖主理方会自动将每个竞标者的出价设为其估值的一半,并返回与原始拍卖相同的结果。这个直接机制是激励相容的,因为如实报告估值是每个竞标者的最优策略。但如何将这一原理迁移适用于更为复杂的人工智能伦理场景中呢?


实际上,只要我们不执着于思考抽象的伦理原则,而把目光投向部署人工智能的数字科技企业的日常操作,就会发现它们的涉及伦理的实践是相当透明的,也就是符合直接机制的适用条件的。只要稍加伦理引导,或政府的负反馈举措,就能实现社会伦理状态的改进。这里继续以网暴为例,前面已经说明,为网暴提供基础设施的平台企业是出于引流的商业目的而客观上助长网暴的,而假如助长网暴不断导致政府的负反馈,无论是司法层面的要求承担侵权责任,还是行政层面的责令整改,都会使防止网暴的人工智能算法设计成为企业合规措施的一部分。


表1整理了新浪微博、腾讯微信和小红书这三个主流社交媒体平台的引流机制、防网暴机制和声誉机制,其中的所有内容都是从它们各自的公开信息中提炼出来的。


由此可见,学者们关注到的伦理漂洗(ethics washing)现象,即数字科技企业通过发布自愿性的道德准则和声明,来展示其对道德问题的关注,从而避免外部监管,但实际上并未真正落实有效的道德实践,主要原因是抽象的伦理原则无关企业自身的核心业务,是为了满足外部监督者的形式主义要求而做的表面文章。换句话说,这是由于目前的人工智能伦理体系未能考虑到企业本身的内在激励并设计出一种激励兼容的、能够促使企业报告其实际可行的伦理实践方案的机制。而机制设计理论可以帮助我们看到问题的症结所在,并作出有针对性的改进。


当然,让企业自愿披露其真实伦理实践的直接机制,并不是“算法透明”这样的伦理原则,而是“治理网暴”这样的可欲结果,达致这种结果的压力不仅来自政府,也来自企业的衣食父母——用户。虽然很多人参与网暴,但没人愿意被网暴,参与无数次网暴所带来的满足远远无法补偿被网暴一次所带来的痛苦,所以大多数人还是会选择一个能有效治理网暴的平台。考虑到这样的激励结构,我们便可以理解企业为何愿意公布自己治理网暴的措施,并且真的会采取这些措施。而让一家数字科技企业去报告自己履行“增进人类福祉”这样的伦理原则的信息,由于与其核心业务并无直接关联,它当然会选择说得无比动听,至于行动,还是老样子。


实施理论


实施理论是研究如何通过机制设计(博弈规则)使得均衡结果满足社会最优标准的理论。如果一个机制在每个可能的世界状态下,其均衡结果集等于社会选择规则所确定的社会最优结果集,则称该社会选择规则被该机制所实施。马斯金的论文《机制设计:如何实现社会目标》提出了一个从确定目标到设计机制实现该目标的层层递进的步骤和逻辑。以下是对此过程的概括和解析:


1.确定社会目标: 明确我们希望实现的社会目标或理想结果,这些目标或预期结果不是用形容词表述的,比如“向上向善”,而是更加具体的可以通过机制设计在有限时间和现实约束条件下可以实现的目标。比如我国的《算法专项治理清单指引》中虽然以“向上向善”作为大目标之一,但在次级标题下给出了更加明确的目标(见表2)。



2.识别约束条件: 承认机制设计者通常缺乏关于个人偏好的完整信息,这导致需要设计激励相容的机制,以引导个人行为朝着前一步所确定的目标的方向发展。比如促使企业公开披露伦理实践相关信息,包括防网暴的措施信息,而不是公布一套自己没有动力和机制去践行的抽象伦理原则。


3.设计激励相容的机制: 通过设计机制,确保在纳什均衡等预测概念下,行动主体的策略选择能够导致可欲的结果。例如,使用策略矩阵来设计机制,详细列明企业目前所采取的策略行为类型,以及社会期待其做出改进的方向,以政府监管部门的监督实施和可能的负面评价作为负反馈机制。这种机制不以打开算法黑箱这种不切实际的要求作为操作手段,而是根据算法对人产生实际影响的显性表征(比如用户界面设计)为切入点,具有实际可操作性和效果。


4.确保机制的稳健性: 检查机制是否满足单调性和无否决权等关键性质,以确保其在纳什均衡中的可实施性。单调性确保如果一个结果在个体偏好中没有下降,它仍然是最优的;无否决权确保没有单个个体可以阻止一个被广泛接受的结果。


5.验证与推广: 通过具体实施的例子,比如下面提到的“清朗行动”,来验证机制设计的有效性,并通过理论化提炼来进行一般化推广。


中央网信办秘书局、工业和信息化部办公厅、公安部办公厅和国家市场监督管理总局办公厅于2024年11月12日联合发布了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,针对人民群众普遍关切的数字科技公司利用算法损害个人权益和公共利益的常见做法提出了具体的改善措施,督促企业深入对照自查整改。该通知的附件提供了更为具体的“算法专项治理清单指引”,分“信息茧房”、热搜榜单、新就业形态劳动者权益、大数据“杀熟”、算法向上向善和落实算法安全主体责任等六个大项提出了27个整改建议。对于这个通知以及根据这个通知而采取的行动,我们可以从机制设计理论的角度来加以理解。


首先,通知所要求开展的行动不是“打击”、“处理”或“严打”,而是专项执法行动,其目的在于保护网络安全和数据安全、人格权益、劳动者权益、消费者权益以及青少年和老年人权益,所有这些法益都有专门的法律加以保护,从《网络安全法》、《数据安全法》、《个人信息保护法》到《未成年人网络保护条例》。这是法律明确底线,伦理指引目标的体现。通知的附件中列出了六个大项目标以及包含在这些目标之中的更具体的可实现目标。


其次,执法的方法是抓住“平台责任”这个抓手,督促企业自查整改。清单的目的正是为企业提供一个明确的指引,以便企业对照检查自己的算法设计是否符合要求,如果不符合则需要对算法进行调整和优化。这种执法方式不以处罚为目的,而以帮助企业向善向好为目的,可以使企业避免因违法而遭受处罚。作为指引,其中既包含了硬性的合法合规要求,也包含了科技伦理和商业伦理的内容,尤其是在“算法向上向善”这个部分。


第三,执法的目标选择体现了对数字经济时代算法应用的商业模式的准确理解,所提出的整改方案有现实针对性和价值引领性。通过对数字科技企业当下主流算法设计模式及其对用户个人权益和社会公共利益之影响的准确把握,清单指引提出了改善现有算法设计的具体建议,这些建议都有一定的现实针对性和技术可操作性,是符合激励兼容原则的机制。


最后,这些整改建议可以借助现行法律中为落实平台责任的网络和数据安全负责人以及个人信息保护负责人制度来在网络和数据法领域,平台责任已经成为一个核心概念。无论是在《网络安全法》和《数据安全法》之中,还是在《个人信息保护法》之内,数据掌控者和数据处理者的责任都占有基础性的地位,是法律得以有效实施的关键。其中的道理十分简单而明确:在如今的数字化时代,人类社会生活越来越依赖网络和数字技术对海量人类行为数据的处理,从网上购物到日常消费支付,从疫情期间的健康码到线上会议,每一项日常活动背后都涉及算力支撑、算法处理和数据生成。在这样的总体数字化环境中,让监管者去监督数据处理的全过程是完全不可能的,让公民个人通过诉讼或寻求行政救济的方式来维护自己的权利也只能起到个案纠错的作用,而无法成为常态。传统的权利本位的法律模式和命令—控制本位的规制模式都无法有效发挥权利保障和风险控制的作用。


在这种背景下,由法律来确定框架性和底线性的基本原则,以平台责任的形式将遵循这些原则的责任落实到数据掌控者和处理者身上,使之内化为它们的运营准则和经营成本,政府从外部监督其合规行为,在出现可观察到的疏于履行责任的事件时强力介入,严厉处罚,这无疑是最为务实的一种制度设计方案。这种模式将权利本位和风险规制本位的因素融合到一起,形成了所谓的“元规制”,即强调监管者与被监管者之间的合作而非对抗,行为规则的内化,以及法律和伦理原则在整个数字基础设施中的泛在化。这次“清朗”行动正是这种数字化时代“伦理+法律”新模式的体现。


当然,“清朗行动”毕竟是一次专项行动,而不是常态化的机制。但机制设计理论恰恰告诉我们:越是想要从顶层设计上一劳永逸地解决问题,越是会在基层实施上无休无止地碰到问题。因为不考虑激励兼容问题的伦理原则无法解决信息成本问题,而伦理实施的关键就是信息,不仅需要你知道,还需要我知道你知道,以及你知道我知道你知道……这种递归推理(recursive reasoning),即个体在决策时会考虑到对方对自己的了解和预期,所涉及的是私人信息和公共信息的占比问题。从这个角度看,也许并不存在什么一劳永逸确立基本原则的、放之四海而皆准的人工智能伦理,而只有一次次针对具体问题(比如网暴,比如青少年沉迷网络)的“专项行动”,因为符合激励兼容条件的伦理实践已经融入相关主体的业务和行动之中,专项行动只是对实践情况进行信息搜集、成本—收益分析、合伦理性评估以及在发现问题时提出整改意见。







请到「今天看啥」查看全文