“外界对大模型有相当多的误解。”近日,李彦宏一则内部讲话曝光再次将大众的关注点转向了大模型及AI领域。
据称,在最近一次和员工交流中,李彦宏首次谈到了当下行业对大模型存在的三个认知误区——大模型竞争、开源模型效率、智能体趋势。
在他看来,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级。这个过程可能需要几年、十几年如一日地投入,才能真正满足用户需求,帮助用户降本增效。
自去年3月以来,大模型相关领域发展得非常迅猛。很多玩家为了证明自身的产品好,会在发布之后打榜、猜测试题目、答题技巧等。在外界看来,榜单上的数据似乎表明各个大模型的能力,已经没有壁垒。
但李彦宏并不认同这一观点。他表示,每一个新模型发布时,都想说自己有多好,每次都去跟先进的模型做比较,拿测试集或者弄一些榜单,说自己的得分已经跟它差不多了,甚至某些单项上得分已经超过GPT-4,但这并不能证明这些新发的模型与OpenAl这类先进的模型没有那么大的差距了。
因为,模型之间的差距是多维度的,而不是简单地“跑分”。
一是能力。
不管是理解能力、生成能力、逻辑推理能力还是记忆能力等这些基本能力上的差距;
二是成本,
大模型想具备某种能力或想精准回答一些问题,需要付出多少成本?有些模型可能推理速度很慢,虽然也达到同样的效果,但实际上它的体验还是不如最先进的模型。
在百度文心大模型的实际使用过程中,百度不允许技术人员去打榜。因为真正衡量文心大模型能力的是,在具体应用场景当中到底有没有满足用户的需求。
图 / 摄图网,基于VRF协议
有没有帮助用户产生价值的增益,这是百度真正在乎的。
在此次内部讲话中,李彦宏进一步阐释了外界对开源大模型认知的第二个误区
,
即开源模型,并不能解决根本的算力问题。而算力往往需要支持高昂的成本。
“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这在大模型时代并不成立。
大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。
“效率上开源模型是不行的。” 他表示:“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”
图 / 摄图网,基于VRF协议
李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。
关于智能体趋势
是重要发展方向,
但还不是业界共识
当前,智能体已经受到越来越多的大模型公司及客户的关注。但关于未来的发展,各家的认知并未达成一致。