开源和免费策略背后,亦是技术创新驱动,大模型不断迭代带来成本降低和生产力提升。
在近日召开的世界政府峰会上,李彦宏表示,在AI领域或IT行业,大多数创新都与降低成本有关。
“如果成本降低一定比例,生产力也随之提高同样比例。在今天,创新速度比以往都快得多。根据摩尔定律,每18个月,性能就会翻倍而价格减半。如今,大模型推理成本每年降低90%以上。”
这一数字背后,是行业大模型技术的深度变革与突破。
成本的大幅降低,使得大模型不再是仅存于顶尖实验室、少数科技巨头手中的昂贵 “奢侈品”,而是得以广泛普及,为千行百业的发展注入新动能。
成本下降的原因指向技术的成熟。过去几年,以百度为首的大模型企业们,一直在硬件、算法、工程化层面突破,致力于进一步降低门槛,努力提升商业化能力。
回溯大模型发展的早期阶段,技术不成熟带来的高成本问题,笼罩着众多AI企业。
以一个数百亿参数的Transformer模型为例,进行大规模预训练,通常需要数周到数月的时间,且需要依赖GPU集群的持续运行。在GPU单价居高不下的时代,每天的训练费用可能高达数十万美元甚至更多。
行业一直在围绕算法和硬件两个层面降本,百度的做法是,通过昆仑芯+百舸AI异构计算平台双轮驱动,构建超大规模算力集群。
其中,百度智能云通过自研昆仑芯三代及万卡集群建设,在确保了自身算力供应以外,同时为行业提供了新的降本增效方案。据百度方面介绍,万卡集群除了能处理单一任务,还可同时训练多个轻量化模型。基于通信优化与容错机制,有效减少算力浪费,实现训练成本指数级下降。
支撑万卡集群高效运行的是百度自研的昆仑芯三代。相较于前代产品,百度自研的新一代昆仑芯在算力、能效、稳定性等方面全面升级,针对大模型的分布式训练,昆仑芯三代结合并行任务切分策略,在训练主流开源模型时,将集群MFU(集群计算利用率)提升至58%,有效提升算力利用效率。
如果说训练成本决定技术上限,那么推理成本则决定了应用下限。
得益于百度四层技术栈的独特优势,芯片、框架、大模型和终端应用场景能够形成高效的反馈闭环,帮助大模型不断调优迭代。早在2024年初的财报电话会上,李彦宏曾透露,自发布以来,百度不断降低文心大模型的推理成本,已降低至一年前的1%。
训练成本和推理成本的断崖式下降,使百度有能力将文心一言从“付费会员制”转向全民免费。
而这一策略也绝非简单的价格战。此前百度CTO王海峰透露,文心大模型日均调用量已超2亿次,这种量级的用户交互数据,是打磨AI能力的核心燃料。
免费策略本质上是用短期收益换取数据飞轮的高速旋转,当单次API调用成本越来越低,免费开放带来的用户规模效应,反而可能通过生态反哺实现商业闭环。这种以战养战的策略,正在改写AI进化的底层逻辑。