专栏名称: Dots机构投资者社区
机构投资者组成的社区,深度点评财经事件
目录
相关文章推荐
51好读  ›  专栏  ›  Dots机构投资者社区

AI模型层可能毫无利润可言(2月10日)

Dots机构投资者社区  · 公众号  ·  · 2025-02-11 08:15

正文


A streamlined info flow
A streamlined info flow

周末听了a16z的podcast,启发很大;里面有一句提到关于大模型的货币化,让我印象很深:

That (LLM model layer)is not the best layer to monetize it. In fact, there might not be any money in that layer .

大概意思就是,AI大模型层面上,变现的机会并不是很大; 甚至在AI模型这个层面,毫无利润可言

顺着里面提到的一些思路,聊聊 AI模型层的利润 vs AI应用的边际成本

AI的模型层不是一个好的变现层

1/ AI模型是不是一个“通用商品”? 这个辩论不算新鲜;但是现在, deepseek把这个叙事推向了另外一个高度 。回顾一些关键的时间节点:

  • 2003年 - Nicholas Carr的一篇“IT doesnt matter”;完美解释了IT技术如何成为一项“通用商品”,最后变得“无关紧要”;

  • 2022年 - chatGPT横空出世;开始零星听到有人把IT商品化的思考,拓展到了AI;

  • 2023年5月 - Google的内部文件声称,AI并没有护城河

  • 2024年 - 各家巨头的CEO都在公开场合讨论AI commoditization;比如微软,亚马逊(尤其是在re:invent发布会上)

  • 2025年1月 - Deepseek横空出世 ;在更小更多的设备上部署AI成了可能;很多服务商已经开始竞相提供最低价的R1解决方案( 开始朝着“成本角度”去竞争 );

  • 2025年2月 - Open AI 开始聊开源;

2/ 如果你接受了AI模型最后会变成“通用商品”技术 (a generic commodity),而且没有明显的“差异化” / “网络效应(network effects)”,那么你就很难去在这个基础上建立一个拥有大量溢价 / 利润的业务模式。 在这个层面上,你基本上聊的只能是是“边际成本”

3/ 这个说法在我们现在这个时间点上,仍然还是有点反直觉的 。巨头们用地球上规模最庞大的资本,买了大量最先进的英伟达芯片,难道不就是为了创造出最为复杂的“AI明珠”吗?怎么就成为“通用商品”了?

4/ 一项技术复杂精密,并不代表它不能成为“通用商品” 。举一个不是那么贴切的例子,个人电脑现在看起来司空见惯,但是其刚刚被发明出来的时候,却仍然凝结了人类当时最先进的硬件和软件,这并不代表它不能逐步迭代,而成为“通用商品”;就算是现在最低端的智能手机,放在10年前, 仍然称得上非常的复杂,但是几乎也只能按照“边际成本”去销售 ;(苹果手机吃掉了智能手机大部分利润,正是因为它把其做成了一个消费公司 / "consumer discretionary",而非单纯的科技公司;)

5/ 历史也给过一些启发 。回顾互联网的发展史,人们曾过度专注于从互联网最底层的基础设施(即HTML和HTTP)去实现盈利, 但是历史最终证明互联网的商业价值不在于底层协议,而在于应用层 (譬如我们现在熟悉电商 /广告/流媒体);如果HTTP的这个例子太过老套,大家也可以参考“5G时代”的投资体验;当时一大堆基金经理冲进去中国移动等5G基础设施标的, 最后证明腾讯这类的应用公司,才最终掌握了行业的大部分利润

6/ 亚马逊在去年12月 Re:Invent的时候,对AI模型商品化有过一些挺好的描述,在现在看来也仍然有很多启示;大意就是,AI能力会变得非常非常重要, 重要到其不再成为一种非常特殊的东西 (钢铁是构建现代建筑必不可少的东西,但是钢铁也仅仅是一个commodity,谁便宜谁好用,就用谁的。) AI模型不再特殊,而是成为和数据库,储存等云计算时代的传统参数一样 ,成为构建AI应用需要调用到的计算处理之一。有兴趣的朋友可以参考我12月9日的公众号文章。

外资交易台 | AI 成为 commodity? (12月9日)

7/ 回到AI大模型的护城河这里,Google的23年的内部文件其实已经“预言”了deepseek这类挑战者的出现 ;我这里简单摘录一些;

  • 我们一直在关注 OpenAI;谁将跨越下一个里程碑?下一步将是什么?但不舒服的真相是,我们并没有准备好赢得这场军备竞赛,OpenAI 也没有。在我们争吵的时候, 一个第三方(开源模型)正在悄悄地抢走我们的市场

  • 简单来说,开源模型正在超越我们;仅举几例,人们在Pixel 6手机上上以每秒 5 个tokens运行基础模型;人们也可以在一个晚上在大家的笔记本电脑上微调个性化的人工智能;

  • 尽管我们的模型在质量上仍然略有优势 ,但差距正在惊人地迅速缩小。开源模型更快、可定制性更强、隐私性更好,并且在能力上更具性价比。它们用 100 美元和 130 亿参数完成的事情,我们在 1000 万美元和 5400 亿参数下却难以做到。而且它们是在几周内完成的,而不是几个月。这对我们有深远的影响;

  • 我们没有秘密武器。我们最好的希望是向谷歌外部的其他人学习并与他们合作。我们应该优先考虑支持第三方集成;人们不会为一个受限的模型付费, 当免费的、无限制的替代品在质量上相当时。我们应该考虑我们的价值真正在哪里

  • 巨型模型正在拖慢我们的进度。从长远来看,最好的模型是那些可以快速迭代。既然我们知道在<20B 参数范围内可能实现的内容,我们应该将小变体视为重要内容,而不是事后考虑。

  • 我们应该认真考虑每个新应用或想法是否真的需要一个全新的模型。如果我们确实有重大的架构改进,导致无法直接重用模型权重, 那么我们应该投资于更激进的蒸馏形式,以便尽可能保留上一代的能力

  • 如果我们能够更快地对小模型进行迭代,大模型在长期内并不会更具能力 ;LoRA 更新的生产成本非常低(约 $100),适用于最受欢迎的模型大小。这意味着几乎任何有想法的人都可以生成并分发一个。训练时间通常在一天以内。在这种速度下,所有这些微调的累积效应很快就会克服起步时的规模劣势。实际上,就工程师工作小时而言,这些模型的改进速度远远超过我们使用最大变体所能达到的效果,而最好的模型已经在很大程度上与 ChatGPT 区分不开。专注于维护地球上最大的一些模型实际上使我们处于劣势。

  • 直接与开源竞争是一项失败的提议; 现代互联网之所以依赖开源,是有原因的。开源具有一些我们无法复制的重要优势

如果AI模型层不能变现,那么巨头们为什么还花“冤枉钱”?

我们姑且先接受AI大模型即将成为“通用商品”,并且很难货币化这个观点; 那么各家巨头们为什么在deepseek之后,仍然继续提升25年的capex投入呢

1/ 花大钱,办大事,是云计算大厂的思维惯性 ;现在主流的AI模型,多数是由云厂商去推动的(这里把Meta先放在一边,回头再聊);云计算时代,他们就是通过巨额的资本支出去获得竞争优势,所以在AI时代,这个思维惯性自然会保留下来; 在巨头眼里,资本支出 + 数据,是他们的战略优势 ;所以通过战略优势去scale up,顺理成章。

2/ 其他硅谷的初创公司也都采取大云厂这类scale up的方法(包括Meta + xAI + anthropic), 因为在同一个生态系统里面,大家都习惯在微观上去做优化和改进,争夺同类的资源(人才 + 算力 + 数据) ,反而忽视了一些宏观层面的模型架构改变。中国模型生态,因为芯片的限制,反而出现deepseek这类型的突破。

3/ 这类型的思维惯性, 在互联网的早期阶段,也出现过 。引述 Marc Andreessen的一个说法,







请到「今天看啥」查看全文