顶着亏损还要烧钱买用户的狂热背后,则是大模型悬而未决的商业化焦虑。
据自媒体“AI产品榜”公布的国内AI产品访问量排行榜(截至4月)来看,最受欢迎的仍是AI对话机器人(AI Chatbots),这也是百度、阿里、字节等大厂的主推产品。但根据红杉资本的数据,2023年,AI行业仅在英伟达芯片上的成本就达到了500亿美元,但整体产生的收益只有30亿美元。
烧钱买用户的大模型厂商,不得不算好各家的经济账。
无论是本地部署还是API 接入,尽管大模型厂商们已经开启价格战,算力价格持续压低至几分钱1000个tokens,但token价格的降低只是表象,大模型应用在实际对话的过程中,产生的token消耗,则是一个更庞大的数字。
瑞恩告诉字母榜,2023年3月,他和两位腾讯出身的高P共同创业,从大模型微调到内容社区、营销工具,都做了尝试,但由于C端推广成本和后续维护成本太高,最终团队已经研发的AI产品并未选择上线。
“现在用户使用大模型,并不是简单的对话,而是要基于一定知识库做问答,可能首轮对话,token调用就已经达到9,000或者1万。如果用户持续进行对话,到第10轮或者第20轮, token的消耗数额就会非常惊人。”在瑞恩看来,对于现阶段的大模型APP而言,使用的人越多,很有可能不仅不赚钱,还要赔钱。
瑞恩的判断早有例证。2024年,由社交平台Instagram联合创始人创立的Artifact,仅过了一年便宣告停运,作为颇受关注的AI创企,创始人对关停原因的解释则是,“虽然我们已经构建了拥有核心用户群体的内容,但市场机会还不够大,不足以保证获得持续投资。”
根据HAI研究所的AI报告,谷歌Gemini Ultra的训练成本估计为1.91亿美元,GPT-4的训练成本估计为7800万美元。同时,背靠亚马逊和谷歌的Anthropic,年营收为1.5亿~2亿美元,但年支出却是营收的10倍以上,高达20亿美元。
值得关注的是,圈进用户之后,大模型厂商们的问题依旧不少。
如今已经习惯使用大模型写代码、做文档阅读的老黄直言,用以Chatbots工具为代表的AI大模型产品,仍然很有门槛。“大模型需要用户主动提问,对提问的质量要求很高,但是普通用户早已经习惯了APP的傻瓜式操作,算法猜你喜欢。”
此外,无论是哪家大模型,追问到7-8个问题时,就开始重复回答,或者干脆提示网络繁忙,则成了影响用户体验的又一新问题。
对于大多数用户而言,面对层出不穷的大模型APP,使用起来效果差异都并不大。如今在某家金融公司实习的丁依偎表示,尽管他已经刷到了不少厂商们推出大模型APP的广告,但对于他而言,手机端的大模型APP,使用起来并不方便。对于习惯用大模型写代码、分析研报的丁依偎来说,比起小屏幕,在笔记本上直接使用网页版,同时还能联网搜索,显然更加便捷。
同时,对于涉及到地域政治因素分析的研报,大模型更是会直接宕机,这也让丁依偎颇感无奈。
不管是文心一言、通义千问还是Kimi,在用户进入面对对话框时,仍难以避免一片迷茫。大模型厂商们,为了留下用户,在产品化易用性方面,也做了不少努力。
豆包的推荐页里,有着修仙模拟器、测智商等趣味性的互动;文心一言则在近期上线了高考填报志愿、儿童节等场景专题应用;Kimi+,也覆盖了学术搜索、翻译通等多种实用场景。