专栏名称: 中泰证券资管
齐鲁证券(上海)资产管理有限公司将用更专注、更专业、更敬业的服务;收益高、体验好、创新多的产品回馈新老客户与友人。此外,还有“理财小知识”、“理财故事”等知识贴助您轻松理财。
目录
相关文章推荐
萧秋水  ·  今年五一,国家将全面启动心理热线 ·  17 小时前  
阑夕  ·  互联网沟通实录be ... ·  2 天前  
利维坦  ·  书店清仓,英文学术书1元起拍卖了 ·  2 天前  
51好读  ›  专栏  ›  中泰证券资管

中泰资管天团 | 王路遥:投研人员的DeepSeek打开方式

中泰证券资管  · 公众号  ·  · 2025-03-06 19:30

正文

今年春节前,DeepSeek公司发布推理模型 DeepSeek-R1,性能追平了OpenAI的O1模型(行业top级别),并同步开源模型权重。其论文和模型表现迅速引发全球关注,并火速出圈至二级市场、实体企业乃至个人:APP累计下载量超1.1亿次,周活跃用户规模最高近9700万——AI真的已经进入到了普通人的日常生活。


我在DeepSeek-R1发布的最初即开始尝试使用,虽然我此前对于大模型的语言对话并不陌生,但模型展示出来的推理能力和解决问题的思路依然惊艳到了我,以至于我在好奇心的驱使下恶补了大模型的底层原理:transformer、思维链、强化学习等。


当然,也有一些朋友认为DeepSeek存在信息滞后、思考反应慢、输出内容冗长,答案不准确等问题。这些问题确实客观存在,但其在内容的创造性、思考深度等方面依然给了我不少的帮助和启发,故而在此想阐述一点使用心得: 怎样才能 让这个“实习 生”人工智能真正帮到我们?


第一点是启发思考, 这是我认为DeepSeek有别于其他AI应用对我帮助最大的部分。 DeepSeek可以展示完整的“思维链”, 且并不需要在问题中额外标注。思维链是对问题的细分拆解:针对不同类型的问题,可以步骤化、分类、以及用假设来形成更多的问题分支,再将问题分支逐一解决。其实这就是人类解决问题的方式,拆分问题——回答子问题——复盘调整回答,但受限于效率及思考精力,我们往往就是脑子里凭借本能和经验理一理思路,很少用笔将思维导图清晰的表达出来,长时间形成的思考习惯很容易让我们忽视将问题结构化拆解的重要性。遇到简单的问题大概想一想即可应对,但面对复杂的问题,用经验拍脑袋的方式得到的往往是一团乱麻,畏难的情绪一上来,问题也就搁置了。


其实解决问题的起始点就是问题的重新定义,让复杂的模糊的表述像树干——树枝——树叶一样有层次地延展下去,直到清晰的、具体的、可行的小问题浮现出来。有了DeepSeek,我们可以把这些复杂问题先扔进去,让它帮助拆解和丰富我们的思路。如果仍不够清晰,我们还可以把它拆分出来的小问题再次扔进去,获得进一步的明确和细分。我能明显感受到,大部分无从下手的问题都不是真的没有解决方案,缺少的就是连接大问题和具体解决方案之间的思维桥梁,而这,正是DeepSeek展示思维链的价值所在。



第二是努力提一个或者一串好问题。 语意模糊、边界太广的问题即便是给专业的人来处理,也很容易答非所问;扔给推理模型,回答的角度自然也难以精准命中。我的体会是,类似于产业调研,要想获得确切的答案, 问题设计一定要在角度、范围上尽力做减法,将需求框定在一个越窄的空间,就越会限制回答随意发挥的可能性。 具体一点讲,问“是不是”就好于问“为什么”,问“能源局的发电机组装机目标和占比 就好于问“国家未来的产业发展方向”。


问DeepSeek还有更“傻瓜”的办法:利用模型“联系上下文”的能力,基于其对模糊问题的分拆,继续追问或者修正其思考方向,不仅可以用来调整模型回答的角度,还能够极大的加强深度:对“归因”类的问题一层一层地抽丝剥茧,刨根问底直到因果链的源头。前一篇文章我们提过用“第一性原理” (请戳这里) 来思考技术路线比较的问题,即把问题解答到基本的物理、化学、数学原理,用DeepSeek追问探讨可以极大的提高我们寻求第一性的效率。


第三是把DeepSeek当助手,而非百科全书或者论文集。 大语言模型有“幻觉”,即生成与用户输入不符、与先前生成的内容矛盾或与已知世界知识不符的内容。从大语言模型的底层原理来看似乎难以规避:根据前文生成下一个“字”或“词”,依据的是已有的文本数据,辅助以部分微调和监督机制。这个过程很类似于用“刷题、背答案 的方式来学习,而非真正理解。当问题和训练集有出入的时候,基于统计规律生成的答案就难以根除“幻觉 现象。



DeepSeek-R1的“幻觉”问题还要更严重:根据AI公司Vectara利用幻觉评估模型HHEM-2.1做的测试,DeepSeek-R1的幻觉发生频率达到14.3%。在投研这样的严肃场景,这样的问题意味着准确性完全不可接受:事实的确认是投资决策的基础,“基础不牢,地动山摇”,模型的回答不等于事实的真相。那么,怎么解决不准确的问题?对于有客观答案的问题,着力在提问时加入展示推理过程和具体信息源的要求,核实信息源,同时利用数理知识与逻辑思维来校验推理过程。而发散性的问题,我们可以处理得更轻松一些,充分利用模型的创造力,多让模型提供一些框架总结、解决方案、思路建议方面的回答,像一个助手一样为我们提供思路和潜在的方向,而非精确的答案。事实上,开放性问题通常也没有标准答案,只能在比较和实践中体会优劣,推理模型 量大管饱 的优势就体现出来了。是 勤勉的助手、而非断正误的判官,这才是模型更合适的定位。


AI离我们的工作和生活越来越近,虽然目前仍有些许不尽如人意的地方,却已经在处理问题方面展示出了足够强大的实力。我一方面为科技的进步和效率的提升感到欣喜,另一方面也为机器已经在迫近人类最骄傲的思考和脑力劳动而倍感紧迫。显而易见重复性的工作会越来越多的被机器替代,必须依靠人手操作的场景也就越来越狭窄;合理推断在投研场景下对信息的跟踪转述、随波逐流的投资观点价值也将会大打折扣。和AI比速度和背答案copy的能力毫无疑问没有前途,独立自主的思考和判断可能才是AI和人的差异分野。


“我思故我在”,与诸位同行共勉。








请到「今天看啥」查看全文