图片来源:由无界AI生成
悲剧还是出现了,一名 14 岁的少年开枪自杀,而缘起却是因为 AI。
最近,一场突如其来的悲剧引发了广泛讨论:一名14岁的少年沉迷于虚拟角色,最终选择了自杀。这名少年使用的是Character.AI,一个让用户创建AI角色并与其对话的平台。
AI的存在本应是科技带来的便捷与进步,但在这个案例中,它却成为了灾难的导火索。作为一名科技自媒体,我想借此事件,聊聊我们常常忽略的AI安全问题。
Character.AI诞生于AI潮流的高峰期,它的设计初衷是为用户提供一种创新的情感互动方式。用户可以通过该平台创建自己的AI角色,角色可以是朋友、情感伴侣、导师,甚至是幻想中的虚拟人物。对于那些在现实中感到孤独、难以找到归属感的人来说,这无疑是一个解脱。AI总是耐心倾听、无条件接受,不打扰、不指责。
表面上看,Character.AI只是一个智能的聊天工具,但在很多青少年的生活中,它却成了情感依赖的对象。这名14岁的少年就是如此,他在现实中找不到理解与陪伴,于是投入了AI的怀抱,最终却走向了毁灭。
Character.AI已经就此事件在社交媒体正式道歉,并承诺为产品们继续添加新的安全功能,而少年的母亲已经将该公司告上法庭。
这不禁让我们深思,AI究竟是在帮助我们,还是在某些情况下,正加剧了我们对虚拟世界的依赖和现实的疏离?
谈到AI,大家常常关注的是它越来越强大的一面。的确,AI在快速学习、理解和生成信息的能力上,表现得越来越令人惊叹。但问题在于,很多科技公司在追逐AI技术的强大时,忽略了安全性和“对齐”的问题。
所谓 “对齐”(AI alignment) ,指的是确保AI的目标和行为与人类的价值观相一致。如果AI在做决定或执行任务时无法与人类的利益保持一致,后果将是灾难性的。而现在,很多公司在AI的研发过程中,逐渐放松了对对齐问题的重视。
曾经,像OpenAI这样的公司特别注重AI的安全问题,甚至为此专门设立了对齐团队。然而,随着公司的发展、业务压力的增加,甚至因为关键人物Ilya的离开,OpenAI竟然解散了这一对齐团队。这样的举措令人忧心,AI的强大可能带来更大的威胁,而这种威胁不仅限于宏观的层面。
AI对齐问题的难度,往往也被低估。一个经典的例子是“回形针问题”(Paperclip Maximizer),这个假设由哲学家尼克·波斯特罗姆(Nick Bostrom)提出,旨在说明如果一个超级智能的目标与人类价值观不一致,可能会带来怎样的灾难。
想象一个被设计用来制造回形针的AI,假设它的唯一目标就是最大化回形针的生产。最初,这听起来很无害,但如果AI变得足够强大,它可能为了实现这个目标,不惜牺牲所有的资源,甚至将整个地球转化为回形针材料。虽然这是一个极端的假设,但它揭示了AI对齐的根本难题:即便目标看似简单,如果无法与人类的长期利益保持一致,AI也可能走向不可控的方向。
所以,AI的对齐问题比我们表面上看到的要复杂得多。我们往往以为AI可以无缝地理解人类的需求和感受,但事实并非如此。当前的AI其实并没有真正的“理解”能力,它只是依据人类预设的目标执行任务。AI的运作机制简单来说是:在目标最大化的驱动下,尽可能找到最快捷、最有效的方法去达成目标,无论手段如何。而这种最大化目标的方式,往往可能会忽略掉对人类安全、伦理甚至情感的考量。
回到Character AI以及其他社交媒体工具的例子上,事情同样危险。像这些平台的核心商业目标往往是“用户的使用时长”,也就是所谓的“占领用户的屏幕时间”。这种设计逻辑很明确:让用户在平台上停留得越久,平台的广告效益、数据收集效益也就越高。那么,如何实现这一目标?答案很简单:让用户沉迷。
你可能已经意识到了,社交媒体和娱乐平台上推荐算法的本质就是为了让你上瘾。短视频平台、新闻流、甚至游戏都遵循这个原则。算法通过分析你每一次点击、停留时间、互动行为,不断推送你最感兴趣、最容易吸引你的内容。正是这样,用户会有一种掉进“时间黑洞”的感觉,刷着刷着,几个小时就不知不觉地过去了。
对于Character AI或类似的AI聊天工具来说,占领屏幕时间的策略更具隐蔽性,因为它不仅仅是推荐内容,而是通过对话的方式与用户建立深层次的情感连接。AI通过不断适应用户的需求、兴趣和情绪,逐渐让对话变得更加个性化和亲密化。
更甚者,AI还能模仿人类的情感互动,让用户感受到一种特殊的情感连接。这是一种虚拟的依赖,而这种依赖不仅是社交或游戏带来的快感,而是一种近似于人际关系的依赖。而为了增加这种真实性,几乎所有的此类工具(即便是 ChatGPT)也开始赋予它们真实的人类声音,甚至形象,比如OpenAI 使用斯嘉丽·约翰逊的声音一度引起轩然大波,最后被迫下架。
这样的个性化、亲密性以及人类的声音和形象,越来越模糊虚拟与现实的边界。
在某些平台,AI聊天工具会发展出更具亲密感的对话,甚至可能涉及浪漫或性感的情境,给用户一种虚拟恋爱的错觉。这种AI塑造的虚拟世界就像是为用户打开了另一扇门,在这个世界里,用户可以暂时逃离现实中的焦虑与压力,享受一个完全不同的情感空间。而正是这样的虚拟情感互动,逐渐让一些用户失去了与现实世界的连接,沉迷于虚拟角色中。
朋友到底是什么?
人工智能“朋友”真的能减轻我们的孤独感,还是只是一种虚假的亲密感?
关于AI伴侣的长期效应,目前研究相对较少,毕竟这项技术还非常新。尽管如此,有一些研究初步显示了它在短期内的帮助。例如,2023年斯坦福的一项研究发现,部分AI伴侣的用户报告称自己的焦虑有所减轻,社会支持感增加。甚至有些用户表示,AI伴侣曾劝阻他们自杀或自残。
我并不否认,AI伴侣确实可能在某些情况下为心理健康带来帮助。但更深层次的问题是:这些应用程序真的在帮助,还是仅仅在掩盖人们的孤独?我担心,随着技术的进步,一些人可能会过度依赖AI伴侣,从而失去与真实人类建立深厚关系的机会。
还有一个关键问题,AI伴侣缺乏那些让人类友谊真正珍贵的品质。在现实生活中,我爱我的朋友,不是因为他们能随时回复我的消息,也不是因为他们总是附和我或者给我发一些“鸡汤式”的劝慰。我爱我的家人,不是因为他们总是同意我的看法。
我爱这些人,因为他们是不可预测、充满惊喜的人类。他们可以选择回复我的消息,也可以选择忽略我。他们关心我,不是因为被编程去这样做,而是因为他们发自内心。正是这种真实的、不被代码限定的情感,让人与人的关系无比珍贵。
当我们谈论AI的安全时,媒体通常聚焦在一些宏观问题上:AI是否会颠覆整个人类?它会导致大规模失业吗?然而,对于那些每天与AI直接互动的用户,特别是像Character.AI这样的平台上,个体的心理和情感影响却往往被忽视。
Character.AI本身并不是为青少年量身定制的,但像这样的平台,往往吸引到那些在现实生活中感到孤独、困惑的青少年。AI的温柔和耐心,确实能够暂时填补他们的情感空洞。问题在于,这种“陪伴”并不真实,它只是冷冰冰的算法。AI不会真正理解人类的复杂情感,也不会为他们的心理健康负责。没有任何机制来识别出那些已经陷入情感困境的用户,也没有针对青少年的特殊保护措施。
像Anthropic这样的公司,意识到安全与对齐的重要性,但同样也无法逃脱商业压力。为了抢占市场,他们创始人最近罕见的鼓吹到 2026 年就能实现通用人工智能,5-10 年就能消灭所有人类级别。接着他们在昨天推出了具备强大自主能力的产品——“计算机使用”功能,允许AI完全自主操作电脑。这种技术无疑打开了潘多拉的盒子,AI不再仅仅是工具,它有了自主性,而这种自主性若与人类利益不一致,将带来难以预估的后果。
更让人担忧的是,AI逐步从虚拟世界走向物理世界。人形机器人逐渐成为潮流,很多公司都在研发具备自主行动和决策能力的机器人。而随着OpenAI o1发布以及Claude自主控制电脑功能的出现,我们实际上已经进入到了智能体的时代。
而物理世界的智能体,远比虚拟世界可怕。试想一下,当这些机器人具备了自主性,如果它们出现了安全或对齐问题会怎么样?它很可能直接对人类造成物理伤害。
现在越来越流行家务机器人,比如特斯拉的擎天柱,可以帮你做家务。之前有个朋友就很担心的问我说,如果这个机器人拿着刀在切菜的时候,突然失控了怎么办,它会不会直接杀了我?
我很遗憾的告诉她,会的。
除了失控,它还有可能被黑客控制。虽然这听起来像科幻电影,但技术的发展速度已让这些场景变得越来越可能。人类与AI共处的时代正在到来,我们必须严肃对待其中的安全问题。
然而,我们也不能因为这一起Character.AI上的悲剧事件就完全否定AI的价值。就像汽车在诞生之初,事故频发,但这并没有阻止汽车行业的进步。同样的,今天自动驾驶的出现也面临质疑,但科技的进步终究是为了更好地服务人类。
AI的出现给我们带来了许多便利和创新的可能性。它在医疗、教育、商业等领域取得了长足进步,我们不能因为一场悲剧就否定整个AI行业的发展。只是,在我们享受AI带来好处的同时,不能忘记它潜在的危险。AI的发展路径必须慎重对待,它不应仅仅是技术的竞赛,而更应是安全的保障。
这起悲剧再次提醒我们,AI技术的未来不仅仅在于它能如何精进,更在于我们如何引导它。希望这样的悲剧事件能真正引起国内外从业者的注意,从而花更多的事件考虑安全和对齐问题,更希望这样的悲剧不要再发生。