开源,免费。
毫无预兆,百度扔下两个王炸。
2月14日,其宣布,将在未来几个月,陆续推出文心大模型4.5系列,并于6月30日起,正式开源。
就在前一天,百度刚掏出两个“免费”锦囊:
文心一言将在4月1日0时起,全面免费
;即日上线的深度搜索功能,届时同样全面免费。
作为最早一批入局AI领域的企业,百度的一举一动,牵动大众眼光,关乎行业走向。
多数人热议的,是百度创始人李彦宏对待大模型开闭源的态度转变。其实,比这更重要的,是他对下半场风向的洞察,以及路线相应的快速调整。
一个更开放的百度,疾驰在AI“水电煤”普惠革命的路上。
开闭之争
不约而同地,百度与Open AI两家巨头,同一时间决定开源。
Open AI首席执行官山姆·奥特曼称,未来将重新制定开源战略,
还提到,正酝酿将非前沿的旧模型开源。
百度更为直接,其直接宣布开源的,是新系列的模型。
这种变化,不免引向老话题——大模型到底是开源好,还是闭源更好?
其实,
开源闭源,不是简单的二元对立、非此即彼
。
从技术发展路线来看,开发主体对此的选择,很大程度上源于对商业策略的考虑,底层是商业模式和理念的碰撞。
开源能令参与的多方,深入理解模型的技术特点,增进产学研交流,同时,考虑到一些应用场景,涉及垂直领域特有应用的效率调优、行业数据隐私等问题,不便于开源。
二者各有各的使用场景。
早期的模型开源,更多得划到“营销”范畴。
比如Meta的LLaMA模型,仅部分开源了参数权重和结构,核心的“配方”,即训练所用数据集、训练过程、优化细节等未公开,后者才是真正决定性能的关键。
开发者想要复现和改进这些模型,会面临诸多限制,严格意义上,它们只能算“半开源”。
李彦宏很早就指出这一点,
提到有外行混淆了模型开源和代码开源的概念
。
市场鼓励的,本就是负责任的模型开源。进入2025年,这一市场呼吁的实现,可能性变大了,背后是技术迭代的速度,超乎所有人想象。
“今天,创新速度比以往都快得多。摩尔定律中,每18个月,性能就会翻倍,价格减半;如今,大模型推理成本每年能降低90%以上。”数天前的WGS 2025峰会上,李彦宏如此表示。
他提到,回顾过去几百年历史,创新的本质是成本下降与生产力提升,在AI、IT乃至更多领域,大多数创新都与降低成本有关。
如成本降低一定比例,生产力也能同比例提高。
这意味着,无论开源、闭源,基础模型的发展都在加速往前跑,
二者势必走向彼此博弈摇摆、相辅相成的格局
。
大模型颠覆摩尔定律,行业逻辑重构,玩家只能应势而变——这也是百度此次拥抱开源的原因。
价值根本
“开闭”之争,并非泾渭分明,与其囿于孰强孰弱的争论,大众目光更该放在已形成共识的问题上。
正如李彦宏所说,“归根结底,最重要的是应用,而不是使用哪种大模型。不管开源还是闭源,
更重要的是可以在应用层创造什么样的价值
。”
没有构建于基础模型之上、丰富的AI原生应用生态,大模型就一文不值。
今年以来,得益于DeepSeek爆火出圈,以及百度文心免费等新的利好释放,带来AI应用开发的门槛大幅降低。
AI应用,迎接“安卓时刻”。
百度很早就给出判断,必须加码AI应用,其提前布局,一直是坚定的实践派。
早在两年前,李彦宏就多次表示,“百度要做第一个把所有现有产品重做一遍的公司。”
这不是整合、接入,而是重构
。
大刀阔斧变革之下,百度的应用矩阵,显现全新气象。
数据显示,截至2024年11月,百度已手握日均15亿次调用的文心大模型,4.3亿用户规模的文心一言,旗下的百度文库、网盘等产品,亦老树发新芽,加速焕新。
以文库产品为例,年初,百度透露,百度文库AI功能MAU突破9000万,AI DAU年同比增长230%,同时,付费用户超4000万,位居全球第二、中国第一。
惊人的成绩背后,是一年上百项的AI功能更新,团队为去掉产品的“AI味”付出的不懈努力。
在产业端,百度亦凭借多年的技术投入和工具开发,助力成千上万企业用上趁手的AI应用。
其已拥有庞大的大模型产业落地规模,
超过六成的央企和大量的民营企业,在联合百度智能云进行AI创新
。
今年,百度的应用创新,只快不慢,已释放新的信号。
2月13日,文心一言新上线深度搜索功能,全面强化了专业咨询类问题的解决能力,针对性地解决了一系列痛点,包括专业问题查询门槛高、查询渠道专精、查询结果分析难度大等。
由此,更多行业有了专家级问答,内容的深度搜索和文档阅读、代码解释器等工具一配合,在解决复杂任务问题上变得更聪明。
加固底盘
高盛首席信息官马可·阿根提观察到,AI技术的发展速度和影响力,与他当年在亚马逊见证云服务兴起时的情景,惊人相似,AI的发展速度甚至更为迅猛。
超级应用尚未出现,但AI的实际渗透率已然不低。多数投资人和AI从业者都判断,
大模型赋能的AI原生应用,会在2025年有井喷式发展
。
这对基础模型的支撑能力,提出更高要求,市场会加快整合,有实力、规模化的玩家才能留在牌桌。
正如马可·阿根提所形容的,在模型的商品化方面,将看到“很多汽车,更少的引擎”,不同的应用将基于更少的基础模型之上构建。