专栏名称: EarlETF
做趋势的仆人,财富的主人。掌握99%不知道的投资知识,成为1%的投资赢家。
目录
相关文章推荐
ETF和LOF圈  ·  传闻不断,轮到钢铁和证券 ·  昨天  
人生资本论  ·  国家下狠手,理财行业“大清算” ·  昨天  
阿尔法工场研究院  ·  王兴兴是如何一步步打动投资人心的? ·  2 天前  
51好读  ›  专栏  ›  EarlETF

巴菲特的成功,全靠脑前叶,无法复制? | 大模型理财避坑4

EarlETF  · 公众号  · 投资  · 2025-02-28 07:30

正文

今天我想跟大家聊一个特别有意思的话题——大模型的“自我进化”。这事儿得从昨天我在网上看到的一个案例说起,然后一步步带大家看看大模型的“眼高手低”、自我批评的潜力,还有一些让人脑洞大开的优化方式。准备好了吗?咱们开始吧!

老规矩,喜欢看视频的直接点击下面的,想听音频的欢迎在小宇宙和苹果播客上搜索“精分派”收听。

一、DeepSeek R1眼中的巴菲特与Grok 3的挑刺

昨天我在网上刷到一个帖子,有人用DeepSeek R1这个模型分析了巴菲特的投资风格,得出了一个挺有意思的结论。DeepSeek R1说:“价值投资需要一种性格筛选机制——在群体癫狂时保持理性,比如2008年金融危机巴菲特买入银行股;在长期寂寞中坚守认知,比如他持有可口可乐超过30年。这种特质跟智商无关,而是跟神经科学挂钩——前额叶皮层能不能压住杏仁核的恐惧和贪婪反应。研究表明,这种决策模式更多取决于先天神经结构,后天训练几乎改不了。”

_- visual selection

我一看,哇,这分析挺带劲啊,从神经科学的角度切入,听起来很高大上。但再一想,又觉得有点不对劲——“后天极难改变”这话是不是太绝对了?巴菲特自己不也说过,阅读和思考的习惯对他投资决策帮助很大吗?这不就是后天努力的证据?

幸好,我和 Deepseek R1 打交道多了,知道它非常喜欢讨论心理学,甚至之前它在讨论文字风格模仿时,还给我指定过一个通过脑神经优化来习得文字风格的训练机制,但后来才发现近乎于胡诌。

于是我把这段话发给了Grok 3,想看看它怎么说。

Grok 3果然没让我失望,它直接开怼:“‘后期极难通过训练改变’这话太武断了。虽然神经结构的‘硬件’——比如皮层厚度——成年后确实难改,但神经可塑性表明,大脑的功能连接可以通过长期训练改善。比如认知行为疗法(CBT)或者冥想训练,都被证明能增强前额叶对杏仁核的调控。巴菲特也提到过阅读和思考对他有帮助,这说明后天经验不是完全没用。所以,‘极难改变’夸大了先天的作用,后天努力还是能弥补一些不足的。”

Grok 3还顺手优化了一下原文,改成了:“价值投资需要的性格特质——在群体癫狂时保持理性、在长期寂寞中坚守认知——不仅靠智商,更跟前额叶对杏仁核的调控能力有关。研究表明,这部分受先天神经结构影响,但通过长期训练,比如养成认知习惯,后天仍有一定改善空间。”你看,这改得多自然,既科学又不那么咄咄逼人。

这个过程让我特别兴奋。一个模型生成内容,另一个模型挑刺,最后得出更靠谱的结论,这不就是一种“批评与自我批评”的实践吗?我觉得这事儿值得深挖,咱们接着聊。

二、大模型的“眼高手低”是怎么回事?

看到DeepSeek R1和Grok 3的互动,我突然想到一个现象——大模型好像都有点“眼高手低”。啥意思呢?就是它们输出的东西有时候不尽如人意,但它们自己能看出问题在哪儿。比如DeepSeek R1写了个分析,乍一看挺唬人,但细看有点偏颇;而Grok 3一上手,就能指出问题,还能优化得更好。这让我好奇,这种“眼高手低”到底是怎么来的?

后来我跟Grok 3聊了聊,它从理论角度给我掰开了揉碎了分析。大模型的生成过程是基于概率预测的,比如预测下一个词是什么,倾向于挑高概率的“安全”选项,像“天气很好”这种中庸表达。但它们评估的时候,能调用更广的上下文和训练数据里的模式,发现“哎呀,这太简单了,应该更生动点”。这就导致“手”——生成能力——跟不上“眼”——评估能力。

还有个原因跟架构有关。大模型用的是自回归方式,一步步生成内容,每步都追求局部合理,但整体可能平平无奇。事后一看,它们能从全局视角发现问题,比如逻辑不连贯或者缺乏创意。这种不对称让我想到,模型其实有点像新手写作者:写的时候稀里糊涂,回头一看却能挑出一堆毛病。

我觉得这挺有意思的。“眼高手低”虽然是个短板,但也说明模型有自我提升的潜力。如果能让它们把“眼”的洞察力用在“手”上,是不是就能输出更好的东西?这就引出了我接下来的想法——“自优化”。

三、“批评与自我批评”:大模型的进化之路

既然大模型能看出自己的问题,那能不能让它们自我审核、优化呢?我管这叫“自优化”。比如我让Grok 3写段关于“人工智能未来”的文字,它先说:“人工智能未来会很厉害,可能改变我们的生活方式。”然后它自己一反思,觉得太泛了,就改成:“人工智能的未来充满潜力,可能会通过精准医疗延长寿命、在教育中实现个性化教学,甚至推动无人驾驶普及,深刻改变我们的生活。”你看,这不就从平淡变生动了吗?

但光靠自己批评可能不够,因为模型难免有盲点。这时候我就想到DeepSeek R1和Grok 3的案例——何不引入“他者批评”呢?我管这叫“批评与自我批评”。一个模型生成初稿,另一个模型挑刺,最后再综合优化。这种跨模型协作就像人类团队,一个写草稿,一个审稿,效果肯定比单打独斗强。

_- visual selection (2)

回到巴菲特的例子,DeepSeek R1的分析有点绝对化,但Grok 3从外部视角补充了神经可塑性和后天训练的证据,让结论更平衡。这种过程让我觉得,大模型不应该是孤立的“黑盒”,而是可以互相协作、互相补台的工具。如果以后AI系统能内置这种机制,自动完成多轮批评和优化,那得多牛啊!

其实包括审稿也可以,只要是大模型,都会有幻觉,也就是一本正经的胡说八道。但很多时候我们希望它输出的内容完全是基于我们提供的素材。但很可惜,大模型无法 100%做到这一点。我看过一份Github 上关于大模型幻觉的评测,作者让大模型们去对 1000 篇文章进行综述,并用专门为审核事实优化的大模型去评判,觉过发现即使是最优秀的 Gemini 2.0 Flash,也有 0.7%的幻觉。

image-20250223140804985

至于大家喜欢用的 Deepseek R1,幻觉率你猜有多少,吓死人的14.3%。作为对比,Deepseek 发布的上一代非深度思考模型 Deepseek V3,幻觉率也不过3.9%。

这时候,让幻觉低的大模型去对比原始素材和其他大模型生成的素材,查找失实不靠谱的地方,就成为我非常喜欢的一种实践了。

四、事后批评 vs 事前深度思考:殊途同归?

说到优化,我又想到一个问题:大模型生成时倾向于“中庸”,是因为它们基于概率分布选了常见选项。那能不能通过反思或者深度思考,改变这个分布,提升质量呢?这让我想到两种方式:事后批评和事前深度思考。

_- visual selection (1)

事后批评就是像Grok 3那样,先输出内容,再回头审视调整。比如它发现“人工智能会很厉害”太笼统,就加点具体例子,间接引导下一次生成更优质的内容。这种方式像试错加修正,简单直接,但需要多轮操作。

事前深度思考则不同。像Deepseek R1这样的深度思考模型,会在输出前先推理一番。比如回答“天气如何影响心情”,它可能会先想“天气→光照→生物钟→情绪”,然后直接生成更有逻辑的答案。这种方式把优化前置,初稿质量就更高,但要求模型有强的推理能力。

我问了Grok 3,它说这两种方式本质上都在克服“中庸”倾向,推高优质选项的概率。事后批评是先生成再修,事前思考是先修再生成,一个像“写完改”,一个像“想好写”。我觉得这两种方式各有千秋,结合起来可能更厉害——先深度思考出个好初稿,再批评优化一遍,质量不得起飞?

五、从DeepSeek R1的幻觉到嫁接实践

说到深度思考,我得提一提DeepSeek R1的现状。很多人觉得它作为深度思考模型,推理过程很精彩,但输出时幻觉太多,不太靠谱。比如分析巴菲特时,它说得头头是道,但“后天极难改变”这种结论明显站不住脚。这让我想到,DeepSeek R1的推理能力是不是被生成端的短板拖了后腿?

社区里已经有人开始解决这个问题了。比如有个叫DeepClaude的版本,把DeepSeek R1的思考交给Claude 3.5 Sonnet去输出。还有类似的DeepGemini,用Gemini 2.0 Pro来接力。这种“嫁接”思路特别聪明——让DeepSeek R1专注推理,Claude或Gemini负责把结果打磨成靠谱的答案。

_- visual selection (3)

我觉得这很像“批评与自我批评”的延伸。DeepSeek R1思考优秀但生成不行,就请个帮手润色。这种分工协作不仅提升了实用性,还展现了模块化思维——大模型不用啥都会,可以按需组合。就像人类团队,一个研究员出思路,一个编辑润稿,最后效果比谁单干都好。

当然,这种嫁接也有挑战。比如两个模型的风格可能不搭,计算成本也更高。但我还是很看好这种尝试。你觉得这种嫁接是不是未来AI的一个方向?

六、总结与展望

聊到这儿,我想总结一下。大模型的“眼高手低”是个普遍现象,但也给了我们优化的空间。通过“批评与自我批评”,无论是自我反思还是跨模型协作,都能让输出更靠谱。事后批评和事前深度思考,一个修补,一个预防,殊途同归。而像DeepClaude这样的嫁接实践,则让我们看到模块化AI的潜力。

我觉得这些探索特别有意义。大模型不再是冷冰冰的工具,而是可以协作、反思甚至“进化”的存在。未来,我希望看到AI系统能自动完成这些优化过程,给我们更聪明、更贴心的体验。







请到「今天看啥」查看全文