专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
雷科技  ·  炸裂AI圈的Manus,这就翻车了?!!! ·  昨天  
新浪科技  ·  【#小米公布SU7Ultra设计手稿#】小米 ... ·  2 天前  
新浪科技  ·  【#星舰第八次试飞发射升空#】#SpaceX ... ·  2 天前  
51好读  ›  专栏  ›  腾讯研究院

祖母的讣告也能用AI代写吗?

腾讯研究院  · 公众号  · 科技媒体  · 2025-03-07 15:00

主要观点总结

本文探讨了人工智能在情感表达领域的应用和影响。文章以张心雨桐使用ChatGPT为祖母写讣告为引,介绍了生成式人工智能在私密交流中的应用和人们对它的态度。涉及人工智能对社交交往和沟通方式的影响,使用AI工具对人际关系带来的风险以及人们对此的看法等话题。

关键观点总结

关键观点1: 人工智能在情感表达领域的应用

文章介绍了人工智能在情感表达领域的应用,如写讣告、婚礼誓言等私密交流场合的使用情况。

关键观点2: 人工智能在社交交往中的影响

文章探讨了人工智能对人们的交流方式和人际关系的影响,包括其风险和接受程度。

关键观点3: 人们对人工智能的态度和看法

文章描述了人们对人工智能的态度和看法,包括接受、质疑和恐惧等不同反应。

关键观点4: AI写作引发的新挑战

文章指出了AI写作引发的新挑战,如信任体系的动摇和难以辨别文字的真实来源等。


正文

张心雨桐 作者

一木 审校、编辑



两年前,杰巴·金 (Jebar King) 的祖母去世了。作为家族公认的“秀才”,写讣闻的担子压在了他的肩上。可31岁的他从未写过这种文章,亲人过世的伤痛也让他难以下笔。用他自己的话说,“当时真就是觉得自己做不到。”

恰巧那段时间,他开始使用OpenAI的人工智能聊天工具ChatGPT,主要是捣鼓点购物清单,让它帮忙做做预算什么的。它能帮忙写讣闻吗?金开始给ChatGPT发送一些祖母的人生经历——她在护士的岗位上干到退休、热爱保龄球、儿孙满堂等等——并要求它据此写一篇讣告。

就这样,AI生成的文字为这份生命中最私密的书写勾勒了框架。金对个别词句稍加修改,增加了一些细节,并在母亲的帮助下最后做了一次修正。总的来说,他认为ChatGPT选词贴切,成功地反映了他对祖母的哀思。金表示,“我心里清楚,这篇悼文详实地记载了祖母的生平,字里行间又流露着真情。至于它是否出自人工智能,这点并不重要。”


潜入日常交流的人工智能

可能已经有人注意到,生成式人工智能不仅极大地改变了人们交流的方式,也改变了人们对交流本身的态度。一开始,人们只是以“浅显无害”的方式使用AI,例如发短信或邮件时输入框出现的预测相关词。但自从2022年末ChatGPT面向大众开放以后,科技的应用范围井喷。

随着普通人能接触到的大语言模型聊天助手数量激增,用户开始更多地探索AI助力写作的可能。写邮件、推荐信时都用得上AI的帮助,甚至网上聊天的回复也找GPT老师出谋划策。当然,这种现象也会反噬:如果一篇文本读起来生硬不自然、给人以不真诚的印象,接收者往往第一反应就是怀疑作者使用了AI工具。

图:apnewsIphone预测文本功能展示。
图源:support.apple.com

现在,AI生成的文本开始出现在极其私密的使用情境中。有人用它撰写婚礼誓言、节哀挽词、分手短信、感谢信,当然还有讣告词。将AI用于需要更多情感投注的交流场合,这种行为本身具有一定风险,一旦被对方发现,就很可能被视为一种冒犯,或者极度的不尊重。即便如此,还有用户表示说,他们使用AI本意不是要凭空生产情感,而是让它为人们提供表达情感的模板。


拿不准语气?AI为你把把关

曾被要求上台演讲或安慰过朋友的人都能作证,构思一段恰到好处的话语极其困难,尤其是对新手而言。这种交流总要具体情况具体分析,又需要激起聆听对象的共鸣,须知善意与冒犯只有一线之隔,要拿捏好分寸压力很大。

此时的AI工具恰恰能充当“把关”的角色,为陷入社交困境的旅人指一条明路,为情感丰沛却拙于表达的人提供参照。这或许也是它广受欢迎的原因。戴维·马克维茨 (David Markowitz) 是密歇根州立大学新闻系的副教授,他认为 AI擅长对个人直觉进行理性验证 :“如果你想写一封信为自己的冒犯行为致歉,可以把道歉信写好后丢给ChatGPT或者Claude,再给出提示词,例如‘我想以真挚温情的口吻进行表述,这样说可以吗?这么写与我的目标相符吗?’而大语言模型可能回复:‘稍微有点生硬,根据你的要求,我给出以下几条改进的建议’,这样一来,你的文本也就更精进了。“

当然, 生成式人工智能本身并没有体验过情感。它们是从大量的文学作品、心理研究报告和个人写作信息中习得“情感”的相关概念, 如同人类学家透过古籍残卷揣摩消逝的文明。马克维茨解释道:“这个过程有点像在不亲身体验的情况下学习一种文化,通过观察行为模式来理解某种情感范式,而不是第一视角体验。”诚然,这种技术自身不能理解感情,但它可以比对你的文本与它在文本库中习得的人们表达情感的普遍方式。

生活在费城的凯蒂·霍夫曼 (Katie Hoffman) 今年34岁,她不止一次地在处理微妙的交流时向ChatGPT寻求帮助。比方说,霍夫曼曾用AI起草一封婉拒朋友婚礼邀请的信;还有一次,有人临时爽约她的单身派对还想要回礼金,Hoffman和姐妹们让AI根据这一情境生成了一段成熟得体的回复。 “如何既表明立场又不伤情谊?AI能给我们一个好的表达框架。”

比起靠自己又是思前想后、又是过度解释,最后发出一封前言不搭后语、无关细节过多的消息,霍夫曼发现,ChatGPT给出的草稿比她自己能想出的任何表达都简洁有力。她表示自己现在已经养成习惯,在发送短信或邮件前都会使用AI润色一番,而她的朋友们至今无一人察觉。

讽刺的是,根据康奈尔大学信息科学教授莫尔·纳曼 (Mor Naaman) 介绍,聊天机器人的回复表现越差、越需要人工二次编辑,作者越能从中“接管”对内容的主体性。 没有对细枝末节的修改,你会越看越觉得文本并非出于自己之手。 纳曼教授还说,“这样做也会带来一些影响:会感觉自己很虚伪,总像在作弊。”

图片

仿冒者综合征(Impostor Syndrome)是一种心理现象,指个体在取得成就后,仍无法认可自己的能力,认为成功是偶然的,担心被他人揭穿真相,从而陷入持续的自我怀疑和焦虑中。如《了不起的盖茨比》中,主人公盖茨比通过伪装和财富积累试图融入上流社会,但始终无法摆脱内心的不安和“冒牌感”,这正是该综合征的典型写照。

图片设计:BrennaOriá

不过,这一点并不妨碍许多人在情感交流中尝试使用AI。26岁的吉安娜·托雷斯 (Gianna Torres) 把毕业派对的感谢信撰写工作“外包”给了ChatGPT。“我知道大概该说什么,但要确切地用文字表达出来,对我来说特别费劲。”这位居住在费城的职业治疗师为自己辩解,“我不希望别人觉得我写的东西愚蠢荒唐,或者不懂感恩。“她提示AI生成一段发自肺腑的文字,表达对于大家和她共度这个里程碑时刻的感激。ChatGPT洋洋洒洒地生成了一篇字字珠玑的长信,于是她要求了一份更简短的版本,并将结果逐字抄写到每张卡片上。

“人们老说,‘ChatGPT没有感情’,”托雷斯说,“这话不假,但从它写的文字,我能感觉到温度。”

托雷斯的亲朋好友最初也对她的AI小助手的存在一无所知,直到她的一个表亲看到了她在Tiktok上的分享视频。那个表亲非常惊讶。托雷斯告诉表亲,借助于AI不代表自己想表达的情感不真实,她只是需要一点助力 (“a little nudge”)

图: “a little nudge” 小小助力。

图片来源:Unsplash,拍摄师Lucas van Oort


大众的消极反馈

或许你认为自己有能力一眼识破AI生成的文字。但研究表明,普通人很难判断文字来源是人工还是AI [1] 当你喂给ChatGPT足够多的个人信息,它就能生成足够有说服力的文本。尤其是当文段里包含“我”、“我的” (“I,” “me,” “myself,” or “my”) 等字眼的时候,这是人类语言中最能展现诚意 (sincerity) 的标志词汇之一。“这些字眼有助于暗示某种心理上的亲密感,拉近人们与聊天对象的距离。”马克维茨这么说。

不过,如果收信人疑心“诚意”被外包给了ChatGPT,他们通常会心生芥蒂。“一旦怀疑某段内容由AI撰写,作者的形象就会被打上不可信的标签,这样的沟通也不易成功。”2024年夏天,谷歌用自己的AI媒介Gemini生成的奥运会广告就是活生生的例子:当看到父亲用AI帮自己的女儿给奥林匹克偶像写信时,观众的好感大减。 随着这项技术的发展与普及,人们会越来越警惕那些看上去就不对劲或者过于精雕细琢的文本。

为什么人们如此反感将“诚意”外包给AI生成的行为?康奈尔大学信息科学副教授马尔特·荣格 (Malte Jung) 对此的解释是,这种负面情绪或许来源于大众对人工智能技术整体持有的质疑态度。“人们仍对人工智能相关技术持负面态度,并可能把这种态度延伸到使用者身上。”

根据2023年的皮尤研究中心(Pew Research Center)调查显示,超过一半的美国人将人工智能视作一种隐患,而不是值得期待的科技创新 [2]

信息来源:pewresearch.org

荣格教授认为,人们主要质疑的是AI生成的文章不够真挚 (genuine) ,不够真切 (authentic) ,更缺了那份赤诚 (sincere) 。少了字斟句酌的挣扎,如此传达出去的情感是否经得起推敲?指尖轻点一套自动化流程过后,人们还能记得自己的初衷吗?

当金在X上分享了自己使用ChatGPT撰写祖母的讣告后,他收到了极度负面的回应。这种打击促使他向自己的母亲坦白真相,好在母亲不在意,还安慰他说讣闻写得很动人。“人们的反应确实让我有点怀疑自己了,”他坦诚地说,“我从没想过有什么不好的一件事,居然有这么多人反感,还把它描述得十恶不赦。”

在讨论AI交流的道德伦理问题时,人们的初衷在一定程度上确实应当得到考虑。毕竟,谁还没有为了找到精确的形容而绞尽脑汁的时候呢?想要显得亲切诚恳,这种意图本身就是一种积极的信号。 “关键的问题是人们花了多少心思,用多大的诚意写下这些内容,可能与人们如何感知无关。” 荣格说,“但当你使用ChatGPT,不管你是否投入诚意,人们还是会留下负面印象。”

话说回来,随着生成式AI的不断渗透,有些人已经放下了隔阂。


一种新态度

克里斯·哈哈尔 (Chris Harihar) 39岁,在纽约市从事公共管理工作。他想在妹妹婚礼的致辞中添一段儿时轶事,却很难把故事丝滑插入自己的稿子。为此,他选择求助于ChatGPT。他的做法是,先上传当前的致辞文本文件,再输入自己想要插入的小故事,要求AI把这个故事和“终身相伴”联系起来。“它有办法给出一些我自己想不出来的连接点,合情合理把故事串起来了。”

哈哈尔是较早接触AI的人群之一,他在工作和生活中都常常使用Claude和ChatGPT等AI工具。在他向家人坦白自己的操作时,大家并不感到意外。

哈哈尔甚至会将AI工具运用于育儿场景——回答自己4岁女儿充满童真又刁钻古怪的问题。前不久,小朋友注意到人们的皮肤颜色不同,并对此产生好奇。哈哈尔要求ChatGPT给出“一则儿童友好的解释”。当看到AI给出的适合女儿年龄段、通俗易懂的黑色素相关科普时,哈哈尔深感意外——这种讲解角度,他自己也不一定想得到。他倒不觉得向外界求助让自己失去了一个亲自教育孩子的机会。正相反,哈哈尔把这种技术看作另一种资源。

“从家长的角度出发,带孩子总有焦头烂额的时候,”他坦言,“身边有这种工具,可以随时待命,帮你想一些很难解释的回答,总是好的。”

ChatGPT o3-mini复刻这段对话。


编译后记:“论迹”还是“论心”?

祖母的讣闻应该用ChatGPT写吗?本质触及表达伦理的核心困境:我们究竟该以行为结果还是创作动机来评判情感的真挚性?
这其实算是古老的矛盾,只是在智能时代被技术放大。《绿皮书》中钢琴家帮司机写家书的桥段是电影的重要情节之一,两个人的语言背后是不同的教育程度和认知水平,但鸿沟的存在不妨碍他们真诚交流、共同创作表达。收到书信的司机妻子介意丈夫代笔的行为吗?她的态度表现在对书信的珍视和电影结尾对博士的感谢里。不过有了AI,以后的司机可能也不会和乘客有这样生动的交流了。
更深的焦虑可能来自信任体系的动摇。当技术能完美模拟真情实感,我们该如何确认对方在对话框后真实存在?当所有文字都可能经过算法润色,我们如何辨别那些藏在句读间的真心?或许比起人工智能情感写作本身,人们恐惧和反感的是自己无法辨别文字出处 (人类/人工智能) 、失去掌控的现象。技术迷雾模糊了"我手写我心"的传统契约,AI写作正在稀释"字如其人"的古老默契。
美剧《人生切割术》里有句对话很适合用来总结这个现象:
“我怎么确定你说的是真的?”

“你确定不了。你只能选择是否相信我。”

当然,从另一个视角看,语言本就是人类发明的第一代情感外骨骼。从结绳记事到ChatGPT,表达工具始终在进化中重塑人心。真正关键的或许不是追问文字是否从神经元直接跃入稿纸,而是检视创作过程是否经历心灵的淬炼——就像飞行器驾驶员仍需理解空气动力学,AI时代的情感表达者依然需要直面内心的勇气。毕竟人心从来隔肚皮,在脑机接口降临之前,真诚依然是种需要主动暴露弱点的行为艺术。但有一点是确定的,在大脑解码技术突破且普及之前,人将越来越难拿到别人“花心思”的证据,人与人之间的“猜疑成本”会越来越高。






请到「今天看啥」查看全文