专栏名称: 饭爷的江湖
这是个小号,主要说投资故事,讲人生道理。大号:炒股拌饭 通过历史经济大视野回顾过去展望未来
目录
相关文章推荐
现代快报  ·  江苏省教育厅公告 ·  2 天前  
现代快报  ·  江苏省教育厅公告 ·  2 天前  
中国教育报  ·  这类针对学生的骗局,警惕! ·  3 天前  
青海教育  ·  解码《纲要》⑤ | ... ·  3 天前  
51好读  ›  专栏  ›  饭爷的江湖

准备AI in了。。

饭爷的江湖  · 公众号  ·  · 2025-02-02 20:50

正文

初五大家都在迎财神了,这是咱们本年度的第一篇文章。咱也不说啥虚的东西,稍微展开讲下未来可能的机会和方向。

前段时间我们在《 是泡沫也是机会 》里面也曾经说过,可能未来十年唯一能看到的增量方向,可能也就是人工智能了。

不过在那个时候,人工智能领域要想在应用端加速落地还有个阻碍,就是使用成本实在是太高了。

因为要完成复杂的问题推理和大模型搭建,就需要不断的投资堆算卡和算力,这些都需要折算到单次使用费用中来。

其实任何产品和应用在市面上普及,都要考虑一个成本问题,只有成本够低经济效益足够强的时候,才会大面积铺开应用。

很简单的例子就是,如果生产线上用机器人比人贵,那么机器人就不可能在生产线普及, 因为这样的话还不如多雇个人。

但是在这个春节假期前后,在人工智能领域一个里程碑式的变化出现了。

DeepSeek优化算法之后,可以用更少的卡和算力,训练出和很多大厂效果差不多,甚至某些方面表现更好的模型。

这个算法优化以后出现的成本大幅降低,可能不仅仅是节约成本这么简单,甚至有可能是一种improvement of scaling law。

因为这样的改进出现以后,意味着使用这种优化方法之后,同等算力的情况下能大幅提升模型的表现。

如果往上堆更多的卡,就有可能把模型能力再往上提升一个数量级,甚至达到AGI或者ASI的水平

所以我们看到,现在很多公司都改变了原来的思路,转向采用DeepSeek的思路。

后面调试完成之后,市面上所有的大模型能力提升一个量级的情况,应该也很快就会发生。

这个事情真的让人很激动,甚至可以说是人工智能发展过程中里程碑一样的事件。

假期我们查了很多关于目前人工智能进展的数据,也看了很多各种各样的分析,这里也讲讲自己的感受。

说起来人工智能这个领域的研究,并不是现在才开始的事情,十多年之前硅谷那边就开始搞人工智能研究了。

真正有点突破,是2012年AlexNet出现图像识别精度带来的冲击,这时候人工智能开始进入到一个新的时代。

那时候的 AlexNet错误率远低于当时其他模型,引起了研究人员的极大兴趣,从而复苏了沉睡几十年的神经网络研究

后来到了2016年的时候,谷歌搞的AlphaGo开始下围棋了,这应该算是人工智能真正进入到1.0时代。

之所以说人工智能进入到1.0阶段,是因为这个阶段图像和视频的识别技术,也有了比较大的突破。

这个阶段硅谷很多人觉得,未来这是个很大的方向,于是后面很长时间整个硅谷都把资源和精力投入到这个方向上。

不过虽然大家在上面投了很多资源和钱,但是并没有获得什么实质性的收获,开发出来的 产品甚至有点一言难尽。

因为这个阶段的人工智能产品我自己也接触过,老实说接触下来的感觉有点像人工智障的感觉。

除了某些细分领域之外,可能大多数领域基本没法用,后面很长一段时间,也就没再太多关注人工智能这个方向了。

有时候想想技术创新这东西很像是探险或者探路,既然是探险或者探路里面就有很多未知的东西,中间也会存在各种风险。

比如说哥伦布时代有人说大洋对岸有新大陆,你要花大量的时间金钱冒着风险去探险吧

但是没人知道新大陆在哪里,然后就是一帮人凭着信念冲进去,不停的投资源投钱找方向

可能你砸了很多钱和资源进去,中间甚至还可能迷路染病,丢盔卸甲死了不少人。

最后却发现折腾半天并没有啥收获,钱白花了资源也白投了,这在探险里面是常见的事情,同样在技术创新里是很常见的。

下一个转折点发生在2017年前后,谷歌做了个叫transform的语言模型,不过这个语言模型的主要方向是做翻译。

这个模型做完之后,谷歌自己也没有深入往下搞。因为翻译这个市场大家都感觉太小了,根本没办法和图形视频识别比。

所以市面上主流的大厂,还是把钱和资源都往视频和图形方向投,基本没啥人关注这个语言模型的方向。

这时候OpenAI在市面上出现了,这个公司几个创始人觉得语言方向是有搞头的。

毕竟从古到今人类文明和智慧,基本都是靠语言和文字来传承的,图像和视频也就最近几十年的东西。

现在回头看,往这个方向努力确实是对的。最后也真的让他们搞出来了,所以才有了2022年11月的ChatGPT的发布。

在这之后大家都发现这是一条阳光大道,所有资源都开始往这个方向集中堆了。

每家都在各种融资烧钱加大模型和数据的投入,想通过堆资源和算卡的方式继续提升模型的能力。

不过这么投了一段时间以后,发觉钱和资源烧了不少,但是模型的能力提高又进入瓶颈了。

这个阶段OpenAI做了第二个方向性的尝试,就是在模型不是很大的情况下,开始了推理的学习。

通过不断优化推理能力,对模型和数据持续进行训练,就可以让模型的能力出现成百上千倍的提高。

这等于说OpenAI又发现了一个训练大模型的新路径,在2024年9月24日它的o1 model发布,讲的就是在复杂推理方向的叙事。

这个阶段矛盾的店在于:虽然 OpenAI找到了推理这个方向,但是单次使用的成本还是太高了。

之后就是人工智能突破性发展的第三个标志性事件出现了,DeepSeek通过优化算法大幅降低了推理的成本。

算法优化以后,成本降低到原来的百分之几,差不多降低了两个数量级的水平。

当然了DeepSeek往这个方向努力,某种程度上也是因为我们算卡这块受到了限制,所以整体算力和那几家巨头差距是比较大的。

也就是因为这个原因,所以需要找到更便宜更省力的方法,来完成模型推理方向的训练,他们也确实做到了。

在模型单位使用成本降低这么多之后,带来的影响和变化是非常巨大的。

成本限制的天花板打开之后,后续会大大加速后续应用端的落地速度,人工智能的新时代就要来了。

只不过现在的算法优化,更多的是在在相同规模下提升效率,而不是直接扩展能力边界。

优化算法以后确实可以用更少的数据达到更好的效果,但可能没办法带来的模型能力的数量级提升,比如达到从GPT-4到GPT-5的跨越。

原因是当前模型的复杂推理等能力,依然是高度依赖模型规模和数据多样性的持续扩展的。

但是算法优化这个操作,更多是“在相同规模下提升效率,而不是直接扩展能力边界“。

这么讲可能有点复杂,不太容易看得懂。简单说就是算卡或说算力还是越多越好,这东西和大模型能力直接相关。

现在算法优化找到了省钱的思路,scaling law规律得到改进,但并没有完全颠覆。

后面这些人工智能的头部玩家们,很快也都会意识到这一点,然后加大算卡算力的投入。

那时候大家很快都又要重新拼卡拼参数了,可能和之前的 差异 是不单单只是傻傻的拼卡拼参数了。

另外伴随着DeepSeek对推理能力的优化和效率的提升,未来有几个变化也会逐步浮出水面。

首先是人工智能领域对芯片和算力的需求,未来会随着模型效率的提升持续不断的增长。

之前很多人觉得说,算法优化以后效率提升了两个数量级,差不多就是提升100倍的样子。

在这种情况下,大家都会思考未来算卡或者说算力芯片是不是不需要这么多了。

美国资本市场这段时间,英伟达这种算力公司带动市场出现大跌也是这个原因。

其实这是非常静态的思考方式,这个事情可以用19世纪蒸汽机改进之后,效率出现大幅提升的情况来解释。

当时很多人会觉得,英国蒸汽机效率大幅改进之后,煤炭的消耗是不是会大幅度降低,但结果是煤炭的消耗出现了大幅提升。

原因是早年蒸汽机效率没这么高的时候,由于蒸汽机使用成本太高,好多场景都没办法使用。

但是随着蒸汽机效率提高,蒸汽机的使用成本提高,越来越多的场景开始大规模应用蒸汽机,这反而提高了煤炭的整体消耗。·

举个例子说,假如一台蒸汽机一天要用10吨煤工作,那么这时候只有每天产生效益大于10吨煤成本的地方才能使用蒸汽机提高效率。

假如有个工程师把蒸汽机效率提升了100倍,变成每天只需要用100公斤煤就可以了。

效率大幅提高成本大幅降低以后,你会发现越来越多的场景,可以使用燃煤蒸汽机。

比如你可以用蒸汽机开火车了,可以用蒸汽机做磨坊了,还可以用蒸汽机抽水了。

使用的场景越来越多,你会发现蒸汽机的数量也越来越多,可能从过去的100台变成了十万台甚至上百万台。

每台每天消耗100公斤煤炭的话,你会发现随着蒸汽机数量越来越多,煤炭的整体消耗量也在不断提升。

所以很多东西站在静态的角度是得不出有效结论的,如果从动态角度思考的话你会发现未来的变化会很大。

其次类似蒸汽机效率的提升,DeepSeek效率提升对整个AI领域应用加速落地的影响,我们认为是非常大的。

从AI应用落地的角度讲,DeepSeek带来的效率大幅提升,意味着AI应用落地的成本越来越低了。

过去很长时间,AI应用落地有个很大的阻碍,就是折算到单次使用成本确实是太贵了。

原因是你问AI一个问题,它需要用电力算力来算答案,这背后的电力算力消耗和算卡投资都是成本。

所以我们看到OpenAI推出过200一个月的版本,虽然很多人觉得这个版本已经挺贵了,但是它还是亏钱的。

原因是搜索和推理两种不同的运行方式,本身的成本和资源消耗差异是很大的。

你要搜一个东西它很快就能搜出来,瞬间就能给你对应的回答,但你要用到逻辑推理的话是完全不同的。

比如说你要搜挪威首都是哪里,瞬间AI就可以给你个准确的答案出来,因为这时候AI只需要简单的搜索和收集信息。

但是你如果问他一个比较复杂的问题,比如说你要去挪威旅游,需要AI帮你安排行程。

比如订哪些你喜欢的旅馆,机票有什么选择,需要在哪里转机,这类复杂问题消耗的算力,是简单问题的几千上万倍。

这时候AI除了收集信息还需要推理分析,这块需要耗费的算力和资源规模是巨大的。

从经济性角度考虑,如果一件事情AI帮你做,你需要花几千块成本的话,那么你可以就要想想,这个事情是不是自己做更合算。

但如果只需要花五十或者一百块就能做这件事,很多人可能想都不用想就让AI去做了。

所以伴随着DeepSeek算法优化带来的效率提升,我们会发现模型使用价格的大幅下滑,会使得AI的应用面越来越广。

这里我们也可以得出个结论:DeepSeek带来的效率是AI领域一个里程碑式的事件,就像蒸汽机发明以后效率提升之后的情况一样。

一方面就像蒸汽机效率提升之后,对蒸汽机和煤炭会出现很大程度上的需求提升一样。

AI领域的算法和效率提升,带来的应用端价格下行,会使得未来对芯片和算力的需求进一步提升。

应用端价格下行,又会进一步推动AI应用的快速落地,让AI应用拓展和渗透到我们生活的方方面面。

其实关于人工智能这个东西,我们在两三年前在《 一个重要方向 》和《 终于熬出头了 》里面都聊过。

现在回头看的话,最近两年人工智能发展的速度,甚至比之前我们预期的还要快一点。

最近一次我们聊起来人工智能这东西,是在几个月前的《 是泡沫也是机会 》里面。

当时我们提出一个观点,我们认为这次AI的浪潮非常大,甚至可能是未来十年甚至二十年,唯一肉眼可见的增量机会了。







请到「今天看啥」查看全文