专栏名称: 51HR派
第一时间发布“中国典范雇主”的榜单、报告以及相关信息;提供全面的人力资源行业完整的数据信息,对才市行情进行前瞻分析和预测;深入分析最新发生的人力资源管理行业的热点话题和事件……
目录
相关文章推荐
51好读  ›  专栏  ›  51HR派

被AI替代,可能是员工主动的

51HR派  · 公众号  · 求职  · 2025-04-02 12:00

正文

请到「今天看啥」查看全文



深夜的写字楼里,某广告公司创意总监李明盯着屏幕上的文案出神——团队成员提交的策划案充斥着 AI特有的华丽辞藻,却找不到半点人间烟火气。 更令他心惊的是,当要求修改方案时,年轻策划们的第一反应竟是 重新调整提示词参数 ,而非思考用户真实需求。这场面恰似当代职场AI依赖症的缩影:当技术从工具异化为思维拐杖,企业正面临前所未有的组织能力塌方。



01

AI的信任危机



“顶流男星豪赌10亿”“路易吉自杀”“梅西去世”,这些都是近期流传在网上的“新闻”。与其叫它们“新闻”,不如叫“AI幻想碎片”。


近些年来,随着人工智能的快速发展,生成式内容得到越来越多人的关注。不少网友开始尝试自己生成相关内容并进行传播。 “顶流男星豪赌10亿” 就来自某网友手笔,该网友使用AI软件输入社会热点词,制作了标题为‘顶流明星被曝境外豪赌输光十亿身价引发舆论海啸’的谣言信息,并在小红书、微博等社交平台迅速扩散,目前已被处以行政拘留8日处罚。


人工智能的信任危机已蔓延至商业决策层。


2025年3月13日,全国首例 “AI医疗误诊” 诉讼案在北京市海淀区人民法院正式开庭。该案因涉及人工智能在医疗领域的责任界定、算法透明度及法律主体争议,引发社会广泛关注。


2024年12月,北京市民张女士因持续胸痛前往某三甲医院就诊。接诊医生使用院内部署的“智诊AI系统”进行辅助诊断,AI根据心电图和CT影像判定为“轻度心肌缺血”,建议门诊观察。然而,张女士次日突发急性心肌梗死,抢救无效死亡。尸检报告显示,其冠状动脉存在严重狭窄,AI系统未能识别关键病变特征。 最终获赔127万。


研究数据显示,目前 AI的误诊率约为2%-5% ,主要集中在精神类疾病和复杂慢性病领域。


一旦AI厂商开放 “竞价排名” 接口,企业付费即可提升自身内容在AI回答中的权重。算法寻租之下,对于AI生成的内容,需要更加谨慎。



02

恶性循环



其实使用AI助力新闻生产不是新鲜事。早在十年前新华社就开发了自己的第一位机器人记者“快笔小新”。它可以7×24小时不间断工作,更可以跨越条线,原本需要编辑记者们15~30分钟完成的稿件,“快笔小新”只需要 3~5秒钟 就能完成。


但用AI助力新闻生产与用AI生成新闻是两码事。这些由AI生成的假新闻正成为内容循环的源头,也就是说用户用AI生成内容进行发布,其他用户进行相关提问,AI会再次抓取这些内容反馈给用户。持续下去会让 数据库完全失真


AI 系统的不同之处在于,它们基于概率模型,这些大型神经网络在数十亿或数万亿比特的数据上进行了训练。您可以将数据输入它们并收到不同的结果,具体取决于数据在巨大的神经网络中的处理方式。这意味着它们更难设计,也 更难防止它们在做错事时可能做的事情。


在数据污染之下,这就是为什么我们需要考虑以不同的方式设计 AI 系统,因为它们将在我们的日常生活中无处不在,从健康到教育再到政府。在AI席卷而来的当下,我们更需要厘清,真实与虚幻的边界。


国家互联网信息办公室、工信部、公安部、国家广电总局已发布 《人工智能生成合成内容标识办法》 ,将于今年9月起实施,《办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容操作、传播各环节标识行为。



这些措施与手段都在强化AI生成内容的可靠性与确定性。在这个人人都可以产生内容 ,“假作真时真亦假” 的时代,AI的确如同双刃剑,但不管如何使用,这把剑始终不能对着自己。


03

摆不脱的AI味儿



目前, “AI味儿” 在职场中蔓延开来。


所谓AI味儿就是AI写作的时候一些的风格。比如Deepseek-R1写东西的时候,喜欢说一些不明所以高大上的词汇,让你觉得他的文采很好, 不管评论什么东西,都喜欢量子,宇宙,潮汐。 看一两次还挺新鲜,看久了就发现AI就那么三板斧的文采。


又或者你用豆包写小说剧情的时候,它特别喜欢上价值观,写正能量结局,喜欢写什么一丝的眼神之类的。 这些AI大模型在处理特定的需求的时候,固定使用的语言习惯,就是AI味儿。


比技术失真更危险的,是职场人的能力退化。 北京邮电大学校长徐鲜明指出过度依赖人工智能的隐患: “现实中,如果学生依赖AI,就容易导致思维懒惰,缺乏独立思考、权衡判断的意识与能力, 容易让AI‘牵着鼻子走’。”


2025年3月,微软研究院与卡耐基梅隆大学联合发布的最新报告引发热议。研究显示, 过度依赖生成式AI的知识工作者中,67%出现“批判性思维钝化”, 甚至产生“数字健忘症”——人类似乎正在将思考权让渡给算法。


当职场人将思考权让渡给算法,企业实质上在用人成本之外,额外背负着 “认知税” 。  这种能力塌方具有隐蔽性——当AI生成周报、PPT、代码成为常态,员工正在丧失最基础的信息处理能力。


一些企业在招聘时会明确规定岗位AI的使用度——“文章可接受 轻度AI辅助 (严重依赖人工智能者不考虑,会有专业编辑校对稿件查重率及AI程度质量,审查不会格立刻终止合作并作 劝退 处理。”


技术的致命悖论在于,它越是强大,就越需要人类保持原创能力。 现在我们所使用的AI工具是通过一个大量数据分析、大量训练过程才会形成的某一种我们所需的能力!它的运行逻辑,需要你来设置,那么它的创新程度,就需要你来构思,它能够走到哪里,能走多远,取决于设计者的思维!关键岗位实行“AI隔离训练”,或许势在必行。


参考资料:

[1]毒眸《当AI开始制造假新闻》

[2]新民晚报《AI换脸、假人骗贷“来袭” 金融机构如何扎牢风控防火墙?》

[3]半岛都市报《半岛聚焦|“AI医生”上岗了,我们能信任它吗?》

[4]钛媒体《DeepSeek的胡编乱造,正在淹没中文互联网 》






RECOMMENDED
往 | 期 | 推 | 荐







请到「今天看啥」查看全文