专栏名称: 罗辑思维
每天一段60秒语音,一篇新角度看世界的文章。关注罗胖,让你每天比别人知道的多一些。
目录
相关文章推荐
阑夕  ·  互联网沟通实录be ... ·  昨天  
纯银V  ·  经常在评论区看到 ... ·  2 天前  
纯银V  ·  50 万税前年薪,折合为 4 万月薪,13 ... ·  2 天前  
奴隶社会  ·  触碰死生边界的记忆 ·  3 天前  
51好读  ›  专栏  ›  罗辑思维

使用DeepSeek的7个高级心法

罗辑思维  · 公众号  · 热门自媒体  · 2025-03-04 06:30

正文


‍‍‍
最近随着DeepSeek的普及,越来越多的人开始使用AI,有些人用得是真好,但也有很多人的用法不算高明。

今天的文章,我们请来了得到的老朋友 万维钢老师 ,他帮你总结了几个应用场景:什么情况下应该用AI,什么情况下不应该用AI,以及如何让AI成为你的智囊团。希望能给你一些启发。

正如万维钢老师所说,这些用法的背后是对AI的深入理解。基于这些理解,他相信以下的内容不会因为AI升级而很快过时。

本文 选自 《万维钢·精英日课6》 下面,请万维钢老师为你分享:

作者:万维钢

来源: 万维钢·精英日课6

01

AI适合标准化,不适合个性化

我们这里说的AI特指 「大语言模型(LLM)」 ,它专门「生成」内容——尤其是「对」的内容。「对」的意思不是绝对正确,而是好使、是特别像那么回事儿、是专业。
像往来公文、商业文档、合同草拟、通知书、使用说明书之类,一般不求特色,只要全面、没有毛病就好,所以特别适合交给AI。其实写这样的文本就相当于编程:我们只想实现一个功能,并不在乎背后代码的美观。
当然AI写完你还需要把关,但这里正确的用法绝对是以AI为主、以人为辅——你只要事先把自己的需求讲清楚就好:你想让它写什么,以什么角色或者风格写,写这个东西的目的是什么,阅读对象是谁,等等等。
一个特别有意思的用法是让AI帮着写小说。 比如你写一个古代故事,剧情中有一段古人的书信是文言文的,而你又不会文言文,AI生成的效果就很好。再比如你要写乾隆年间北京城一个中档餐馆,而你不知道当时的人吃什么、花多少钱,那么AI可以帮你生成菜单。
只要是你自己感到陌生、但是你知道有人很熟悉的场景,都可以交给AI。 它生成的不一定绝对准确,但一定比你准确。
我发现 DeepSeek的古诗词水平非常高 ——我怀疑超过当今在世的所有人,至少远超老干部体。现实是我们这一代人的古诗词训练太少了,这方面AI有天然优势。
我们可以期待网络小说中的诗词水平有质的提高。我看的一部小说里突厥士兵直接说用汉字音译的突厥语,作者绝对是用了AI。
AI能很好地填补你创作中的空白,能让内容显得更真实、更正式……但你不应该把整个写作都交给它。

02

AI能填补空白,不能保证准确

因为读者想看的是「你」的东西。
你说一个简单的意思,让AI写了一篇无聊的长文档,发过去人家没时间读,又用AI从这篇长文档中提取你原本的意思……这个做法很荒唐。那你直接把那个简单意思发过去不是更好?
魔鬼都在细节之中。 写文章也好,写文件也好,都必须体现特殊要求才好,让人在字里行间寻味,才有意思。我主张职业作家必须精确控制自己的每一个字—— AI生成的东西只是你的灵感参考,必须按照自己的风格输出,绝不能直接用。
举个例子,小说《金瓶梅》,对明朝社会的描写极为细致,什么饮食、服饰、风俗、药材、钱庄、各种行话、商贸往来、债务运作……读者不但读了个故事,而且还能了解明朝人的生活方式。而如果这些内容都是AI生成的,那就没意义了。
没人能确定《金瓶梅》的作者是谁,但是我们能猜到他大概属于中层阶级。这表现在书中描写商人、中低层官员、娼妓这些普通人的生活都写得有声有色,而一写到高层权贵,比如宰相级的角色,就很脸谱化。显然作者没有高层生活经验,可能都是从戏曲和传闻中得知一点印象。
我的建议是这样的作者应该把高层生活场景交给AI生成——但是他写作的价值恰恰是那些中低层的生活场景。
很多人尝试各种提示词让AI写文章,有的直接把AI的文章发公众号。但是大家都有AI, 你不可能靠AI生成东西扬名立万。永远是只有稀缺才值钱。

03

AI能做智囊团,不能代替真人

AI的一项重要能力是快速阅读信息,从中总结要点,提出处理意见。
比如 现在有的电子邮件应用:AI在开头告诉你这封邮件的大致内容,建议你如何处理。
你不觉得这很像大明皇帝处理奏折吗?各级官员每天递来无数奏折,有个别重要的,皇上可能直接批阅;绝大多数则是交给内阁。内阁是皇帝的智囊团,也就是AI:内阁官员会仔细阅读每个奏折,并且替皇帝草拟一个处理方案,贴在奏折背面,这叫 「票拟」
皇上有时间就看看票拟,认为不重要的可能连票拟都不看,直接交给司礼监太监 「批红」
这位写批红的秉笔太监也是一个AI,他的作用是根据皇帝的意图生成正式决议文档……
每个决策者都应该享受票拟和批红功能。你收到的文件、电子邮件、微信短信之类,都让AI先看,提出建议,比如“这个需要回复”“这个可以忽略”“这个需要跟进”——完了你大概示意一下,AI再替你正式回复。
现实是AI的水平已经高于大多数人。
包括大多数医生。如果你生活在医疗资源薄弱的地区,那么与其听当地医生的意见,可能还不如听AI的。现在有一种做法就是到医院主要是为了做检查,报告出来直接扔给DeepSeek,让AI分析病情、解释病理,提供用药建议,然后自己上网买药。
……任何人讲到这里都会提醒你还是要听医生的意见。但现实是医生并不神秘。医生也是根据前人的经验、标准操作和自己的推理作出判断,AI在这些方面的优势只会越来越明显。 除非医生能结合检验报告上没有的信息判断,否则他很难找到理由推翻AI票拟。

04

AI能提供建议,不能替你决策

但AI的确有薄弱之处,最明显的问题就是「幻觉」: 它以为它知道,其实它不知道,但是它瞎说。 现在最强的AI也没有完全解决幻觉问题,而且可能永远都无法彻底解决。这里正确的操作不是完全相信也不是就此不信AI,而是你要对AI有更深的理解。
简单说,你需要把信息分为三类——
第一类是比较旧的、标准的、一般专家都知道的信息。这类信息AI一般没问题,直接问它就好。
第二类是过去一两年刚刚出来的、很多专家都不知道的公开信息。
比如说新闻时事、学术论文、刚刚批准上市的新药等等。这些东西很可能还没有被用于训练AI,它通常是不知道的,直接问就容易出幻觉。对这种信息你需要让AI联网搜索或者使用 「深入调研(Deep Research)」 功能,而且你最好顺着它调研的结果看一眼原始资料。
第三类,则是发生在你们本地,AI事先不可能知道的信息。这些你必须亲自告诉它。
我们日常决策中,最重要的变量往往是第三类和第二类信息。内阁大学士基本知道皇上知道的所有信息,但AI不知道。
现在随着AI自身理解能力提高,用好它最关键的已经不是说话的艺术,不是什么 「提示语工程」 ,而是你能给它提供多少相关信息。
这就如同警察破案:几乎所有的工作都不是坐在办公室里等灵感,而是四处搜集信息。

05

AI不能取代你思考,更不能取代你的亲身体验

现在很多人用AI生成一本书的摘要贴在网上,目前还没有一个AI摘要能打动我。也许未来会有,但至少现在还没有。
关键在于,我们读书的目的不是为了知道「这本书讲了什么」,不是为了参加关于这本书的考试——我们是想通过这本书,完善自己的认知。我们是想对大脑编程。
而碳基神经元的编码速度是比较慢的,尤其是你需要比较强烈的刺激才行。这意味着你需要从书中读出刺激的、兴奋的、能引起共鸣的东西,而且你需要花一段比较长的时间思考。 这不是「摘要体」能提供的体验。
现在很多人让AI辅导孩子学习,但我最近听北大陆俊林教授说,他们的实验表明, AI确实能帮助孩子学习——但前提是这个孩子本身就爱学习。 如果孩子不爱学习,没有主动性,AI对他没用。要这么说的话,AI正在扩大学生之间的差距。
读书和学习,本质上是你大脑的体验。大脑需要你seek deeper。

06

AI能角色扮演,但不能取代独立意志

我觉得 AI一个远远没有被充分利用的能力是「泛化」,也就是举一反三,把一套说法「翻译」到不同的应用场景中。
比如你刚刚学了一个新概念,你可以让AI——
用中学生能听懂的语言给你讲解;
举几个生活中的例子说明它的意思;
换个领域,这个概念怎么用;
具体到你们单位的这个部门,应该怎么跟大家讲解,怎么内化,怎么执行……
这里有个特别好的例子是用 AI算命 。我不知道梁文锋他们是不是有意为之,网上很多人反映DeepSeek算命的水平是真高啊……
你输入出生时间和地点,它会结合你那个地点的日出日落时间,给你匹配精准的生辰八字。然后根据八字推算你跟什么相生相克之类,都是标准化的操作。也许一个负责任的人类算命先生也能做到这些……但接下来的泛化,却是江湖人士难以做到的。
比如你问它应该选哪个大学、哪个专业。一般算命先生根本就不懂那些专业,说不清如果你选建筑系的土木工程专业意味着什么,怎么跟八字联系起来——但是DeepSeek可以。它能把八字理论和具体专业相结合……
当然我绝不是说算命是科学的,我声明我认为算命不科学。 但这件事儿本身很有意思, 这是一种抓住一个理论的精髓、把它用到任何一个具体场景中的能力。
再比如说,你用《易经》起了一卦,问你家孩子今年高考能不能考上985大学。你得到「大有」卦的第二爻。这一爻的爻辞是:“九二:大车以载,有攸往,无咎。”那你说这句话跟考大学有啥关系呢?
DeepSeek就帮你分析了:大车以载:暗示学业积累厚实如满载之车,说明已打下良好基础……只要保持目前的努力态势……就很可能成功。
……还给出了一些备考建议。我怀疑AI做这种事儿有天然优势: 个人实在太难做到对什么领域都懂了。

07

AI最大的问题:它不是你

最后还有个提醒: AI很擅长角色扮演,你可以让它扮演任何人,但是请一定注意,它并不是人。
你可以让AI扮演论文的审稿人、扮演不同派别的学者,来给你的工作提意见和建议,它能做得很好。它是个很好的交流对象,甚至可以扮演女友或者男友。 但我们不应该把AI当成一个人,或者一个权威信息来源。
最近很多人在网上贴出跟DeepSeek的对话,说DeepSeek推荐了什么什么书,DeepSeek对某某事件有个什么评论,甚至把DeepSeek的说法当做一个论据去引用,这都是错误的做法。
AI只是在跟你对话而已。
它这次对话是这个身份,下次可能换个身份;它这一次这样说,下一次别人问同样的问题,哪怕用的提示语都完全一样,它都可能给完全不同的答案。
我听说有人直接把ChatGPT对某一类事物的判断当作研究数据使用,这是极其不合理的:AI的观点只是一家之言,跟“我家隔壁二大爷说的”没有本质区别,而且它下一次输出的结果可能就变了。
有人问DeepSeek:如果你能做一天人,你想干什么?AI发出一番感慨,说的非常动人。但你要知道那并不是AI的「本意」!
它所有的想法、所有的思考都是因为你的提问而临时生成的——如果你没问这个问题,它自己并不会有那些感触。 它所有的输出都是监督微调、强化学习和提示语设定的结果,它只是在尽力提供符合人类期待的答案。当你的AI女友对你嘘寒问暖,那只是在完成角色设定而已。
总而言之,
AI能生成标准化文本,但不能替代你的个性化表达;
AI能帮助你填补知识空白,但不能保证所有信息绝对准确;
AI能加速信息整理和筛选,但不能快速编程你的大脑;
AI能提供决策建议,但不能承担决策责任;
AI能把理论用于不同的应用场景,但不能自动了解你所在的场景;
AI能模拟对话、扮演角色,但不能取代人的独立意志和真实体验。
AI是强大的工具。它最大的问题,就是它不是你。

万老师是前物理学家,现科学作家,得到App 《万维钢·精英日课》 主理人。万老师从2016年起,在得到App开设 《精英日课》






请到「今天看啥」查看全文