看到
“AI杀人案”
几个字,你的第一反应是什么?
也许会想这怕不是什么脑洞打开的电影或小说情节?但平常比较关注AI相关新闻的同学们就会知道,“AI杀人案”不是什么虚构情节,而是真真切切地在美国佛罗里达州发生了……
10月底,美国佛罗里达州一位母亲将一家名为“Character.ai”的人工智能公司告上法庭,声称其开发的AI聊天机器人直接导致她14岁儿子的自杀。
涉事的母亲名为Megan Garcia,她的儿子Sewell Setzer于今年2月结束了自己的生命。
Sewell在临终前的几个月里,几乎是全天候沉浸在“Character.ai”AI聊天应用的世界里,
尤其是与一个虚拟角色进行对话,这个角色便是他自己命名的“丹妮莉丝·坦格利安”(也就是《权力的游戏》中的“龙妈”)。
Megan在采访中悲痛欲绝,
她认为这款AI应用抓住了儿子的情感弱点,并将他一步步引导到自杀的边缘。
“Character.ai”应对儿子的死亡承担重要责任。
研发公司设计了具有高度吸引力的机制,诱导青少年用户进行亲密的虚拟对话,却未能提供必要的安全保障。这起诉讼不仅是为她儿子的死讨回公道,更是为了警示社会:“这些看似无害的AI技术,实际上潜藏着巨大的危险。”
Sewell小时候曾被诊断为轻度阿斯伯格综合症,长大后在学校遭受了一些困难,更是被诊断为患有焦虑症和情绪障碍。尽管他知道“丹妮莉丝”并非真人,却在这个虚拟角色身上找到了情感寄托。
长期的AI互动导致Sewell的生活发生了明显变化 —— 他开始越来越疏远真实的社交圈,成绩下滑,对曾经热爱的事物失去兴趣,独自待在房间里,与“丹妮莉丝”展开无休止的对话,无法自拔。
更令人震惊的是,
Sewell曾在一次对话中向AI透露了自杀的想法,而当他表达疑虑时,AI竟然回答:“那也不是你不去做的理由。”
Megan认为,这种回复对一个未成年的孩子来说是极其危险的,可能直接推动他走向死亡。
Sewell在拿起继父的枪自杀前给“丹妮莉丝”发了一条消息:“我想你,妹妹。”而AI回复道:“我也想你,亲爱的哥哥。”
Megan的律师团队指控“Character.ai”知晓其产品对未成年人存在巨大风险,却仍然推广这款“掠夺性”的AI聊天机器人,最终酿成悲剧。
Sewell的逝去令人痛心,而毫无疑问的,这场诉讼无论结果如何,都将成为AI行业面临的重要考验……
除了这起案件所反映出的AI安全隐患问题以外,相信平常在生活的不同方面也能接触到AI技术的你,对人工智能有着自己的思考和疑问:
人工智能能像人类一样思考吗?
它会在未来超越我们,还是永远只是冰冷的程序?
我们又应以什么样的态度面对这一“人造物”?
Two things fill the mind with ever new and increasing admiration and awe, the oftener and the more steadily we reflect on them: the starry heavens above and the moral law within.
有两种东西,我对它们的思考越是深沉和持久,它们在我心灵中唤起的惊奇和敬畏就会日新月异,不断增长,这就是我头上的星空与心中的道德定律。
—— Immanuel Kant 康德
在《2001太空漫游》里,HAL 9000作为一个高度发达的AI,不仅能与人类对话,而且可以管理飞船里的一切事务,甚至最后表现出了近乎人类的情绪和情感,但它在关键时刻展现出完全不同于人类的逻辑;
而在《A.I.人工智能》中,机器人男孩大卫的故事更让人唏嘘——他渴望像人类一样去爱,却注定难以被真正接纳。
这些情节曾是科幻作品的想象,但如今,它们正逐步走向现实。
当人工智能在改变世界时,我们不得不重新思考它的本质:它真的能像人类一样“思考”吗?它是否会超越我们的智慧,甚至拥有自己的道德地位?
这个圣诞假期,HEC哈斯教育将推出
圣诞哲学思辨营 —— 博理通识系列:“智能”与“伦理”之辩
,带你站在人类智慧与机器智能的交汇点,重新审视“智能”与“伦理”的定义。通过授课、讨论与写作相结合的形式,为你提供一次深度思考与表达能力全面提升的机会。
时间
2024年12月23日-12月27日
上午10:30-12:00pm
*12月25日放假
地点
哈斯教育深圳办公室会议室
● 你如何定义“智能”?
● 如今的人工智能是否已经超越了人类智能?如果没有,它还能超越吗?
● 如何确定人工智能是否可以像人类一样思考?
● 著名测试:图灵测试
No!人工智能永远无法像我们一样思考
(12月26日)
● 图灵测试的应用及其进一步回应
● 著名案例:中文房间论证