本次大模型降价的原因主要有三:成本下降、扩大市场份额的商业考量以及同质化问题比较严重。在华福证券看来,随着大模型价格的进一步降低,B端客户,特别是云厂的现有客户将加速大模型产品的推进过程,商业化落地有望加速。作者 | 硬 AI
编辑 | 硬 AI
这个5月,大模型的“价格战”进入到白热化阶段,曾经“按分计价”的时代一去不返,迎接我们的是“直接降价97%”的按厘计价时代。
5月25日,华福证券发布报告称,自知名私募巨头幻方量化旗下大模型Deepseek-V2率先降价开始,国内诸如豆包、腾讯、阿里、讯飞等厂商纷纷跟进,截至目前共有7家企业共计21款大模型参与降价。从降价模型级别来看,轻量级及次主力级模型降价显著,但GPT-4级别的主力模型也有一定程度的降价。
华福证券认为,随着大模型价格的进一步降低,B端客户,特别是云厂的现有客户将加速大模型产品的推进过程,商业化落地有望加速。
华福证券在报告中表示,Deepseek打响国内第一枪后,其他大厂纷纷跟进:
5月6日,Deepseek-V2 率先降价,每百万Tokens 的输入、输出价格分别为1元、2元。从模型性能来看,V2对标GPT-4,但价格仅有GPT-4的1%,性价比极高。随后,智谱、豆包、通义、腾讯、讯飞等厂商纷纷跟进,目前参与的企业共计7家,涉及21款模型。大模型正式迎来降价潮。
华福证券指出,在本次降价潮中,从轻量模型到主力模型均有不同程度降价:
虽然说当前免费的模型大多为轻量模型及次主力模型。但国产主力模型当前的价格也有了显著的降低。以GPT-4级主力模型Qwen-Long为例,API输入价格直降97%,约为GPT-4价格的1/400,输出价格也降90%至每百万tokens 2元,1元钱能够买200万tokens。且该模型支持最高一千万tokens的长文本输入,适用于很多的B端统计分析类的应用场景。而在OpenCompass benchimark上追平GPT-4 Turbo的Qwen-Max,输入价格降幅67%,亦有较大幅度降价。
对于降价的原因主要有三:首先是成本下降,其次是为了扩大市场份额的商业考量,还有当前各大模型尚未拉开差距,同质化问题比较严重。
多家企业在宣布大模型降价时,都提到了技术进步带来的成本下降。百度董事长兼首席执行官李彦宏曾表示,与一年前相比,百度旗下文心大模型的推理性能提升了105倍,推理成本则降到了原来的1%。字节跳动旗下火山引擎总裁谭待也提到,该公司可以通过混合专家模型(MoE)、分布式推理等技术手段,优化豆包大模型的推理成本,不会走用亏损换收入的道路。
不过,企业级AI解决方案供应商创新奇智首席技术官张发恩表示,技术进步可帮助推理成本每年下降到原来的1/2左右,大模型的降价幅度却是以10倍来计算的。技术进步不是游戏规则改变的主要原因,商业决策才是本次降价的根本原因。企业希望尽快获得更多客户,占据更多市场份额,未来业务规模做大了,再去想办法挣其他的钱。他还认为,当前大模型技术的场景渗透率还很低,价格战并不明智。
而对于各家不同的降价策略,已经有一些质疑声音称一些降价的模型本身吞吐量就低,高性能模型并没有降价。并且还有很多细节条款会让最终企业用起来没有宣传的那么便宜。
归根结底,能形成价格战的连锁反应,也是当前各大模型的能力放在可用的场景中,尚未拉开差距,用户甚至有免费开源的产品可以用。
本次大模型降价潮势必将对整个行业产生深远影响。
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光就表示,阿里云这次大幅降低大模型推理价格的目标是希望推动AI应用的爆发,加速商业落地的进程。阿里云方面公布的最新数据显示,通义大模型通过阿里云服务企业超过9万、通过钉钉服务企业超过220万,已在PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等领域落地应用。
华福证券认为,随着大模型价格的进一步降低,B端客户,特别是云厂的现有客户将加速大模型产品的推进过程,商业化落地有望加速。
本文综合自华福证券钱劲宇(执业证书编号:S0210524040006)5月25日发布的报告《端侧落地进行时,大模型进入“白菜价”时代》、经济观察报文章《大模型价格战:大厂烧钱狂飙,小厂如何抉择》以及极客公园文章《中国大模型价格战背后的真相》。
* 转载、合作、交流请留言,线索、数据、商业合作请加微信:IngAI2023* 欢迎大家在留言区分享您的看法,如果您能点个👍并分享的话,那就太感谢啦!