简单来说,大模型支持的上下文窗口容量,可类比计算机的运行内存,也可理解为大模型的理解力与记忆力。在与大模型进行内容交互(如问答对话)的过程中,大模型有一个可容纳的文本容量上限。这一上限不仅关系到大模型单次处理文本的能力,也关系到大模型记忆连续对话的容量。
当大模型的长文本容量增加,该大模型在对话时可以考虑的上下文信息就越多,越有助于产生有针对性的连贯对话,也能确保在这一容量内的文本信息丢失情况减小。用户可以喂给大模型更多信息,而大模型根据这一用户与机器的历史互动,回以个性化解释。
月之暗面CEO杨植麟曾诗意地表示,长文本(long context),是做成通用世界模型的第一步,“登月第一步”。
这一步,在技术圈内被认可为重要但并非独特的一步。
正如曾经计算机内存在过去几十年内涨了好几个数量级一样,越来越大的长文本容量同样出现在大模型领域。各家均会发力做内存升级,但受限于长文本对算力消耗大、成本高,真正入局卷基础技术的公司有限,长文本也不是各家大模型的宣传重心。
月之暗面则另辟蹊径,看见了长文本技术在用户端可以产生的影响,并实行了Kimi与长文本强绑定的宣传策略。
早在2023年10月,推出Kimi应用的第一天,月之暗面便在官方公众号上宣传,“欢迎与Moonshot AI共同开启Loooooooooong LLM时代”。
它高调宣称,
Kimi Chat是首个支持输入20万汉字的智能助手产品,其文本容量2.5倍于Cloude的100K,8倍于GPT-4的32k。
容量升级,导向的是更好的用户体验。月之暗面表示,当前大模型使用过程中的遗漏重要信息、不支持长文本prompt输入导致的场景设定不清晰、无法基于大量给定材料给出专业回应等问题,均会在大模型拥有足够长的上下文输入容量后迎刃而解。
这相当于一个记忆容量更大、理解能力更好的大脑。
“它很本质。”杨植麟如是说。
如此强调,是为了抢夺产品在用户心中的定位。成立之初,月之暗面便定下了独特的商业模式,不做目前看来商业模式更清晰的B端,而是在做基础大模型研究的同时,面向C端发力,意图通过技术提升,攻克C端用户个性化服务的需求。
杨植麟曾表示,在大模型领域,基础技术突破和提供个性化服务走的是同一条路。通过不断升级这一“大脑”的“脑容量”,每个C端用户都会获得一个更能记忆与自己的互动历史的模型,从而得到更独特的、无法被复刻的反馈。
这是一招烧钱获客的险棋。由于当前各家大模型C端应用同质化程度高,普遍为对话助手形式,在资金充裕的阿里、百度等大厂仍提供免费应用的情况下,各家公司不敢贸然进行收费。当公司将商业模式定在用户端,暂时看来,其只能仰赖投资人的源源不断的资金流入,以保证研发及运营的现金流。
根据《新浪科技》报道,
月之暗面当前投放广告获客成本约为10元,加上拉新后用户问答产生的算力成本,每个用户的获客成本约为12-13元。
按照第三方数据平台七麦数据的用户下载量预估,近一个月IOS端Kimi累计下载量超82万,仅iPhone端日均获客成本已超32万,近一个月iPhone端获客成本近一千万。若加上安卓端、网页端的运营成本,获客成本更要上一级台阶。
2024年3月,Kimi智能助手下载量估算/图源:七麦数据
尽管费用不低,但这一数据某种程度上验证了月之暗面发展策略的有效性。
在文心一言、通义千问这类大厂产品已形成一定的用户口碑的当下,Kimi凭借其对长文本技术和使用场景的强调,在用户心中营造出“精确+个性化”的观感,为许多用户找到了试用Kimi的理由。
此外,在发布Kimi的半年内,月之暗面进一步宣布升级Kimi长文本容量为200万汉字,比今年2月谷歌Gemini1.5支持的100万token还高。这一技术升级在用户端完成了口碑积累与破圈。
根据AI产品榜(aicpb.com),2023年2月,Kimi在2月访问量骤增一倍,增速在国内访问量前十的AI产品中位居第一。
也正因这一脱胎于初创公司的软件在用户端获得如此大的反响,各家大厂才按耐不住,参与进自家大模型长文本能力的展示中。
在许多投资人看来,
技术已不是当前大模型下一步发展的难点,更困难的在于找到适应市场的产品模式。
多名AI行业分析师向盐财经表示,大模型技术领域的突破依赖人才、资金和数据,技术升级背后的逻辑往往能归因于规模定律。在资本投资意愿仍然旺盛、商业模式尚不清晰的当下,初创企业和大厂各有优势。
正如峰瑞资本投资合伙人陈石在Sora发布后所言,“这轮AI行情有一个突出的特点,就是‘天底下没有秘密’。”对摆出更大数据来“围剿”Kimi的大厂而言,这不仅是秀实力,更是争夺用户市场的先声。