专栏名称: 中国新闻周刊
这里是《中国新闻周刊》掌门周刊君,有聊、有趣、有料,每天真诚推送犀利观点+深度报道+暖心好文+有趣视频。欢迎勾搭,和100万小伙伴一起玩耍!
目录
相关文章推荐
新华网  ·  柯丝蒂·考文垂是谁? ·  23 小时前  
扬子晚报  ·  赵丽颖在线打假 ·  昨天  
新华社  ·  柯丝蒂·考文垂是谁? ·  昨天  
新华社  ·  国务院任免国家工作人员 ·  2 天前  
51好读  ›  专栏  ›  中国新闻周刊

风险,远不止是“开盒”

中国新闻周刊  · 公众号  · 社会  · 2025-03-21 20:59

正文


不需要追求制度设计的一步到位

更关键的是实现技术发展

风险防控与治理模式之间的有效平衡

人工智能(AI)时代,数据隐私成了人们心头最敏感的那根神经。

近日,百度副总裁女儿“开盒”事件引发广泛关注。一场因追星引发的粉圈内部的纷争正快速演变为公众对互联网大厂数据泄露的质疑。

作为一种新型网络暴力方式,“开盒”是指在网络上恶意公开他人隐私的行为,包括他人照片、真实姓名、身份证号、手机号码、家庭住址、社交账号、银行流水、上网记录等个人信息,并煽动网民进行攻击谩骂和生活骚扰。此前,百度副总裁谢广军13岁女儿因不满某素人对韩国明星张元英的评价,将其个人隐私信息挂到微博平台上。

3月19日,百度官方发布声明称,经调查,“开盒”信息来自海外一个通过非法手段收集个人隐私信息的数据库,并非由百度泄露。声明还强调,百度内部实施了数据的匿名化、假名化处理;数据存储和管理实行严格隔离和权限分离,任何职级的员工及高管均无权限触碰用户数据。“百度对于任何侵犯用户隐私的行为都是零容忍。”

但公众的质疑并没有完全停止。近几年,随着AI技术的颠覆式发展和大数据的滥觞,用户数据泄露事件频发,个人信息被滥用的风险加剧,数据安全已经成为公共安全的突出问题。

而随着DeepSeek的横空出世,我们正式迎来了大模型应用的“黄金时期”。未来,随着AI应用逐渐渗入社会与个人生活的方方面面,AI带来的安全风险也会激增,除了数据泄露以外,AI幻觉、深度伪造……技术是简单的,但人是复杂的,当技术与人开始深度交互,人类是否已做好了充分的准备?近日,围绕数据治理,以及AI发展带来的种种安全风险,《中国新闻周刊》专访了清华大学文科资深教授、国家新一代AI治理专业委员会主任薛澜。

如何治理“胡编乱造”“深度伪造”
《中国新闻周刊》:都说“大模型的幻觉是刻在基因里的”,但在医疗、法律等对准确性要求极高的领域,AI如果胡编乱造信息,可能会引发严重后果。随着AI的大规模应用,AI幻觉带来的风险事件可能会呈现爆发式增长。这个问题该如何破解?
薛澜: 就现有技术来看,AI幻觉难以完全避免,但在技术层面上并非没有优化的空间。我们可以采用数据质量改进、模型层改进、系统层控制,和其他措施使得它出现幻觉的概率降低。
政府应该制定一套AI安全性标准与监管体系。在一个AI系统大规模进入真实场景前,需要首先检查该系统是否满足安全性要求,然后才允许上市。在涉及生命安全等敏感领域的应用中,比如医疗场景,尤其需要这样的安全性检测。当然,检测的标准必须与AI的具体应用场景紧密结合。
在国家层面制定相应的法律法规很重要的就是要对技术的收益和风险进行合理的平衡。例如,在医疗领域,假设未来AI在判断的准确率上超过了人类,是否应该以AI系统的判断为准,不再让医生参与决策?那么,如果因AI幻觉导致严重的医疗事故,责任应由医院还是AI开发者承担?
这个例子告诉我们:当AI在一些关键领域大规模应用落地后,责任体系划分的困境将很快凸显出来。就这个具体场景而言,我们的选择不应该是简单的人或机器。而应该考虑第三个选择,就是人机协同,让AI协助医生诊断,即使AI系统的准确率更高,仍然让医生参与最后的诊断决策。
在责任主体难以划分的情况下,一种可行的解决办法是:为AI开发者和使用者(如医生)提供某种职业保险。
比如,可以参考疫苗不良反应的处理机制。疫苗在疾病防控方面发挥了关键作用,但注射疫苗后,会有极少数人出现不良反应,甚至死亡。因此,一些国家设立了疫苗伤害补偿基金,向受害者提供救助。在AI应用领域,也可以设立类似的技术风险基金,或建立某种社会保险制度,避免让技术开发者和使用者单独承担风险。
《中国新闻周刊》:如果说“幻觉”是AI无意识的犯错与欺骗,深度伪造就是人类主动利用AI技术进行诈骗,后果往往更为严重。有统计显示,2024年全球发生的AI风险事件,30%都与深度伪造相关。如何通过法律制度和监管体系的规范来约束此类滥用AI的行为?
薛澜: AI深度伪造现象层出不穷,是因为造假成本过低,追查和执法成本却非常高。这种“不对称”使一些人铤而走险。
AI自身的性质决定了滥用AI犯罪造成的后果很难客观估算,在法律层面就难以设计对应的惩罚力度。过大会引发司法界的质疑,过小则会宽容造假。我国虽然有一般性的法律法规打击AI滥用行为,但总体惩罚力度不大。2024年9月,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,首次对AI深度伪造作出了一定规范,要求AI生成的合成内容,应当添加显式标识和隐式标识,未进行标识造成严重后果的,要予以处罚。但具体是什么惩罚、哪些情况适用于何种惩罚,尚未得到明确。标识本身也可能存在各种漏洞和被操纵的空间,能起到的预期作用尚值得商榷。
AI与其他一般技术的应用和扩散不同,其技术变革很快,应用场景非常丰富,人机互动方式也很多样。未来AI滥用带来的问题可能会更加复杂与多元,我认为,除了国家层面要出台一些原则性规制,社会和企业也需要在实践中不断调试和探索,对政府层面的规则进行补充。
图片
薛澜。图/受访者提供
既要获取数据,也要保护隐私
《中国新闻周刊》:DeepSeek横空出世后,由于其高性能、低成本以及完全开源的特性,越来越多的企业开始部署DeepSeek,大模型“基建”开始渗入各行各业。但是,有统计发现,企业部署DeepSeek时,近90%的服务器都没有采取安全措施,这会带来哪些隐患?我们该如何应对?
薛澜: 首先,企业部署大模型后如果不对数据安全问题进行相应的检查,有可能造成内部数据泄露的风险。尤其是一些企业需要大量算力,不得不使用公有云。如果不采取安全措施,数据就可能被泄露或被篡改,甚至被竞争对手利用。
其次是应用风险。就像我们刚才提到的医疗应用场景,一旦AI系统的数据出现问题,可能会加重“幻觉”,甚至在使用时影响到病人的生命安全。因此,企业在使用开源的AI大模型时,如果面向广大消费者,一定要主动制定更高的内部技术审查标准,对技术的应用进行严格监控。
《中国新闻周刊》:目前,AI数据治理的核心挑战是什么?如何破局?
薛澜: 我国AI数据治理的一个重要瓶颈是缺乏高质量数据。AI需要通过大量数据学习来提升能力。数据越多,数据的质量越高,系统的能力就越强,未来出现“幻觉”的可能性就越小。
然而,在中国,标准化的数据服务商相对较少,数据量虽然很大,但质量较低。如何构建一个完善而成熟的数据市场,是我们迫切需要解决的问题。只有数据行业快速发展,才能支撑AI应用的大规模落地。
另一个重大挑战是数据隐私。有些领域如自动驾驶,数据获取相对容易。但在医疗、教育等领域,数据获取难度较大。
总之,一旦进入具体的应用场景,当涉及个人数据隐私问题时,获取数据就可能遇到各种各样的阻力。如何实现数据收集与隐私保护的平衡,是AI数据治理需要考虑的关键问题。
此外,政府手中掌握着大量的公共数据,这些数据涉及社会运行的方方面面,对训练AI有很高的价值。目前,公共数据的开放程度还不够充分。未来,随着AI应用的普及化,各级政府需要考虑在保证安全性的前提下进一步扩大数据开放。
《中国新闻周刊》:你一直强调AI治理要结合具体的应用场景。如何才能根据不同的应用场景,采取更具针对性的治理措施?
薛澜: AI与人类的交互非常复杂。特别是AI应用于日常生活场景,与应用于工业化场景有很大区别。在工业化场景中,因AI失误造成的额外成本大多可以提前估算和分析,也更容易制定相应的解决方案。但人与机械化的生产系统不同,人的情绪和反应是多变的,与AI系统的互动方式也是多样化的。当AI涉及与人相关的服务时,就会面临很多不确定性。
以教育场景为例,将AI用于学生的日常管理,是一种应用的趋势。有些学校引入了AI课堂行为管理系统,通过教室内的摄像头观察每个学生的细微表情变化,再通过AI系统分析和判断学生是否积极参与课堂学习。有的家长认为这种管理侵犯了孩子们的隐私,有的家长却觉得这种做法很好,让他们找到了孩子学习不好的原因。有的校方还认为,教室属于公共场所,不存在隐私侵犯问题。这是一个典型的“AI+教育”引发的治理问题。其难点在于,从家长、学校到教育学者与法律专家,人们对这一问题的看法往往有很大区别。
再以医疗场景举例,如果患者情绪不佳,在自诉症状和行为表现上就可能出现异常,这是否会导致AI误诊?AI在下诊断时能否考虑到非医疗因素?这些问题都需要认真思考,并融入对应的治理方案中。
未来,在越来越多的AI现实场景中,我们可能会遇到各种各样的复杂问题,这些问题不是凭空想象就能想出来的。这就是我为何一直强调AI时代的敏捷治理模式:在实际应用过程中,一边出台政策,一边试行,不断探索发现新问题,再相应地修改和完善规则,健全相应的治理与监管体系。这个过程中,不需要追求制度设计的一步到位,更关键的是如何实现技术发展、风险防控与治理模式之间的有效平衡。
要更多关注系统性社会风险
《中国新闻周刊》:当AI应用进入“黄金时期”,生产效率提高的另一面,人们担心越来越多的人工岗位将被AI替代。如何解决AI大规模应用可能引发的失业风险?
薛澜: AI广泛应用的结果是大量节约劳动力成本,特别是脑力劳动力,这对白领就业的影响可能是巨大的。如果这种变化在短时间内集中发生,就可能引发社会动荡。当然,从技术扩散的客观规律看,我们不能期望所有人都去同步拥抱新技术。这种情况下,如何让AI应用的扩散更加平稳,如何采取措施,为那些在社会转型中处于不利地位的群体提供兜底保障,是政府当下需要迫切解决的一个问题。
例如,此前武汉发生的“萝卜快跑”无人出租车引起争议,地方政府也许就需要通过合理的政策进行引导,以减少无人驾驶技术应用对传统出租车行业产生的就业冲击。我认为,新技术的推广要循序渐进,先从市场供给不足或不畅的地方入手。比如,在传统出租服务中,有些比较偏远的地方,普通出租车司机不愿接单。从这样的特定场景入手,将无人驾驶技术作为一种补充性手段,可能短期内对就业的影响就不会那么大。同时,也可以积累更多数据,以确保未来大规模应用时的安全性。
一直以来,我们更关注AI误用、滥用等当下的安全风险问题,对AI可能带来的长远的社会系统性风险,如失业问题,关注度仍显不够。下一步,可以通过创新社会治理方式,来适应AI带来的社会性冲击。
在这一过程中,政府应更多地倾听社会各界的声音。在平衡AI带来的风险与收益时,我们需要营造一种理性、平和的讨论氛围,最终对如何平衡达成共识。一定要清醒地看到,这种共识不应仅仅是来自专家或政府的共识,而应是全社会共同形成的共识。
《中国新闻周刊》:多年来,你一直强调AI治理主体的多元化与分工协作。随着AI的大规模应用落地,政府和企业在AI治理中分别扮演了怎样的角色?如何优化不同主体间的分工合作?
薛澜: 当我们谈论“治理”时,这个词往往被理解为政府规制企业。但在AI领域,由于政府、企业都很难提前看到技术发展和应用过程中可能出现的风险,双方不应再是传统的“猫和老鼠”关系,必须加强双向的沟通与合作,共同识别和应对风险。政府应保持开放态度,主动与企业沟通和协商,分清哪些AI应用的领域可以接受一定风险,哪些领域的“红线”不能碰。
我想特别强调的是,企业也可以在AI治理中发挥重要作用,需要更主动地采取措施,自我规制,并与政府沟通,告知潜在风险。目前,大型头部企业在AI治理上表现得比较积极。例如,阿里巴巴、腾讯等企业都设有内部的AI伦理委员会,并建立了针对自身产品的伦理审核机制。然而,随着DeepSeek的大规模应用,越来越多的中小企业进入AI应用领域。这些中小企业是否有能力像头部企业一样参与治理并建立相关机制, 值得关注。未来,还需要推动在行业层面形成治理共识。
“技术霸权”之忧
《中国新闻周刊》:最后谈谈AI全球治理。2025年2月,AI行动峰会在法国巴黎举行。相比于前两年在英国布莱切利和韩国首尔举行的AI峰会,本届巴黎峰会成果有限,美、英均未签署最终发布的联合声明。你连续多年参加AI峰会,从巴黎峰会的情况看,AI全球治理是否也和其他多边事务一样,受到了来自“特朗普2.0”的负面冲击?
薛澜: 首先,前两届峰会主要聚焦AI的安全风险问题,而这次巴黎峰会的议题更广泛丰富,涵盖经济机遇、发展开放、社会影响、文化等诸多方面,这是这个峰会机制的一个新发展阶段。峰会最终形成的政策文件,美英没有签署,比较遗憾。这可能与美国政府换届有关,但和美国政府在应对气候变化问题上的反复一样,并不令人意外。
当前,AI全球治理确实面临地缘政治紧张局势的挑战。
特朗普再度就任美国总统后,对AI全球治理尚未有明确表态,目前各方都在观望。美国各界,包括企业界和学术界,也仍有很广泛的群体,支持中美在AI安全问题上加强合作。已故美国国务卿基辛格先生2023年访华时就强调,如果中美不能在AI风险防控方面达成协议,后果将难以想象。
除了地缘政治,AI全球治理也面临其他挑战。其中一个核心问题源于AI的商业属性。现在很多人将AI治理与核武器治理相比较,其实两者有很大的不同。核武器从研发之初就被明确是要用于战争的,需要各个主权国家参与防控。但AI是由企业主导发展的,本质上是为了在经济生活中应用并推动创新。
因此,各国政府在治理时都面临一个难题:AI是商业性的,不可能像禁止开发核武器那样“一禁了之”。在多边层面上,这也使得全球治理机制难以充分发挥作用。因为在市场经济环境下,企业是推动AI创新的关键,而联合国等多边机制对企业的直接约束力有限。
《中国新闻周刊》:这是否意味着,未来可能会出现少数头部公司垄断全球AI技术的“霸权”格局?如何避免这种垄断局面的出现?
薛澜: 技术领域的垄断现象一直存在。民航“大飞机”制造,全球就只有少数几家公司可以完成。不排除AI领域未来出现类似的情况。
但是,从DeepSeek的出现就可以看出,至少在现阶段,AI产业仍有很大的技术创新潜力,任何企业或国家想保持“霸权”都并非易事。而且,DeepSeek的出现降低了技术门槛,更多企业将有机会参与大模型应用,因此,目前我们还很难判断未来的市场格局。
当然,“技术霸权”或技术垄断确实是一个需要关注的问题。目前,对技术应用的规制主要分为两类,一是社会性规制,即对潜在风险的防控;二是市场性规制,涉及反垄断等问题。由于AI尚未进入大规模应用阶段,所以AI治理目前主要聚焦于社会性规制。但未来,我们需要确保反垄断法律法规在AI领域的合理适用。如果少数企业垄断技术,给市场运行和公众利益带来危害,就毫不犹豫地运用法律法规来进行规制。同时,如果人类未来的命运掌握在少数几家公司手中,这也是非常令人担忧的。
蒲公英的算法
在云朵间跳格子
像素鱼群游过键盘海
叮咚!






请到「今天看啥」查看全文