专栏名称: 吃果冻不吐果冻皮
专注于AI工程化(LLM、MLOps、LLMOps、RAG、Agent)落地。
目录
相关文章推荐
海西晨报  ·  今天起,公布成绩! ·  10 小时前  
海西晨报  ·  今天起,公布成绩! ·  10 小时前  
重庆之声  ·  提示丨明起,出分!复试攻略都在这儿了→ ·  20 小时前  
重庆之声  ·  提示丨明起,出分!复试攻略都在这儿了→ ·  20 小时前  
如东新媒体  ·  明天查成绩!复试攻略都在这儿了→ ·  昨天  
如东新媒体  ·  明天查成绩!复试攻略都在这儿了→ ·  昨天  
鸡西新闻网  ·  即将出分!转存这份2025考研复试全攻略 ·  昨天  
鸡西新闻网  ·  即将出分!转存这份2025考研复试全攻略 ·  昨天  
无线徐州  ·  后天查成绩!复试攻略都在这儿了→ ·  昨天  
无线徐州  ·  后天查成绩!复试攻略都在这儿了→ ·  昨天  
51好读  ›  专栏  ›  吃果冻不吐果冻皮

开源闭源争论不休,浅谈大模型开源和闭源

吃果冻不吐果冻皮  · 公众号  ·  · 2024-05-16 11:49

正文

【点击】 加入大模型技术交流群

写在前面

前一阵子的开源和闭源之争炒的比较火热,之前一直想写点什么,由于太懒就没写,但是最近开源模型真的太火爆了,前有Grok-1、Mistral-8x22、Llama3,后有Yi-1.5、Deepseek-V2、Qwen1.5-110B, 开源模型现在真的卷到飞起。

今天简单聊聊下面的几点内容,欢迎大家拍砖,给出不同看法:

  • 开源模型有哪些优势
  • 开源模型与闭源模型的差距会越大还是越小
  • 开源模型哪家强

开源模型有哪些优势

个人认为, 开源大模型是让大模型行业卷起来的根源。

在ChatGPT刚刚出来的时候,业内满是焦虑;在Llama开源之后,业界满是兴奋,因为更多人看到了光。

开源的优势主要是人多,可能有人会反驳说AI需要高精尖的人才,但老话不是常说三个臭皮匠顶个诸葛亮嘛。(很多大佬其实也是没有什么资源,从头预训练的资源消耗真的太大了)

人一多,点子就多,就会衍生出很多大模型相关Trick,就像如何进行上下文扩展(NTK、YaRN、LongLora等)、如何小代价进行模型Merge得到更大更好的模型(SOLAR、Llama-Pro等)、如何更好更高效地进行人类偏好对齐(DPO、ORPO等)等等。如果没有好的开源模型,很多研究也许就没法涌现出来。

更多人涌入到大模型相关研究中,总会给大模型的发展带来积极的作用。闭源大模型团队的人也可以从外界汲取一些方法,来进一步提升模型本身效果。

随着微调项目的开源、部署框架的不断开源、进步,现在很多中小企业和开发者可以很快地用上大模型,摸清大模型落地的边界,让大模型产品有更多的玩法、可操作性更强,进而会推动AI的落地发展。

就像网上基于通义千问的开源大模型Qwen1.5-110B模型微调后的效果远超原始模型一样, 开源亦有能量。

当然上面只是从技术思维来讲开源的好处,但不可否认的是开源的商业模式确实不明朗,很难避免白嫖的现象。

我觉得从现在GPU的成本来看,很多选择开源模型的企业还是在10B参数规模, 太大了成本也兜不住,还不如选择API ,那么这时候占据开源市场的头部企业的机会不就来了嘛。

开源大模型跟闭源大模型最后应该是相辅相成的 ,只是不同人群用的不同。穷玩家、愿意钻研的玩家、需要有更多私有化定制的玩家,可能选择去玩开源大模型。富有玩家、想伸手就用的玩家、追求更高逼格的玩家,可能选择去玩闭源大模型。

开源模型与闭源模型的差距

个人认为, 开源大模型跟闭源大模型最后应该是相辅相成的

lmsys.org对战分数图

真的不敢想想大模型发展会这么迅猛,不敢想想之前惊为天人的GPT3.5都已经不配跟头部开源模型对标,都在对标GPT4。

从对战榜单上来看, 头部模型中,开源模型占比不在少数 ,可以感觉出来差距在减小。从体验上来说,头部开源模型得效果也是不错的。

闭源有数据壁垒,确实很难追,只能靠头部开源组织发力,个体或者小组织只能缝缝补补啦,反正Pre-train真是做不了。

但也请别小瞧缝缝补补的工作, 反正一些任务微调微调72B模型真能干过GPT4的。

开源模型哪家强







请到「今天看啥」查看全文