专栏名称: 人工智能学家
致力成为权威的人工智能科技媒体和前沿科技研究机构
目录
相关文章推荐
爱可可-爱生活  ·  【[50星]mdy_triton:一键加速H ... ·  14 小时前  
AI前线  ·  “李飞飞团队 50 美元炼出 ... ·  20 小时前  
宝玉xp  ·  好事-20250207065622 ·  昨天  
爱可可-爱生活  ·  【[413星]llmchat:最直观的统一A ... ·  2 天前  
宝玉xp  ·  转发微博-20250205150219 ·  2 天前  
51好读  ›  专栏  ›  人工智能学家

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

人工智能学家  · 公众号  · AI  · 2024-12-09 17:01

主要观点总结

本文主要介绍了清华研究团队提出的大模型能力密度的概念以及相关的研究内容。研究团队发现大模型能力密度随时间呈指数级增长,并提出密度定律来描述这一现象。此外,文章还介绍了密度定律在多个领域的应用以及其对未来技术发展的潜在影响。

关键观点总结

关键观点1: 清华研究团队提出大模型能力密度的概念

能力密度定义为有效参数量与实际参数量的比值,有效参数量是实现与目标模型一样的效果时参考模型需要的最少参数量。

关键观点2: 密度定律的发现

研究团队发现大模型能力密度随时间呈指数级增长,并可以用公式描述。这一发现揭示了模型性能与参数量之间的新关系。

关键观点3: 密度定律的应用

密度定律不仅适用于大模型,也为评估不同规模LLM的训练质量提供了新的统一度量框架。此外,该定律还为模型的高性价比使用提供了指导。

关键观点4: 密度定律的影响

密度定律的提出引发了多个重要推论,包括模型推理开销的降低、大模型能力密度的加速增强、芯片电路密度和模型能力密度的持续增强等。这些推论揭示了未来技术发展的潜在趋势。


正文

来源:量子位 | 公众号 QbitAI

克雷西 发自 凹非寺

Scaling Law并非描述大模型能力的唯一视角!

清华NLP实验室刘知远教授团队,最新提出大模型的 密度定律 (densing law),表达形式让人想到芯片领域的摩尔定律:

模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月 (约100天) 翻一倍。

根据密度定律,研究团队还得出以下重要推论——AI时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。


为了发现这一结论,研究团队引入了一项衡量大模型性价比的新指标—— 能力密度 (capability density)。

团队通过设置参考模型的方式,将“能力密度”定义为了 “有效参数量”与实际参数量的比值。

给定目标模型后,其“有效参数量”被定义为实现与目标模型一样的效果,参考模型需要的最少参数量。

论文第一作者肖朝军表示,根据拟合曲线,到了明年年底,只要8B参数就能实现和GPT-4一样的效果。

论文地址:https://arxiv.org/abs/2412.04315

大模型“能力密度”三个月翻一番

大模型尺度定律 (Scaling Law) 和密度定律 (Densing Law) ,都是大模型指导性的规律发现。

它们分别在不同的维度,对大模型进行科学化的推演。

大模型尺度定律是一种描述大模型随着规模的变化而发生的规律性变化的数学表达,表现为大模型的Loss与模型参数规模、训练数据规模之间的幂律关系。

尺度定律之外,清华研究团队发现,大模型还有另一种度量与优化的空间,能力密度 (Capability Density) ,它为评估不同规模 LLM 的训练质量提供了新的统一度量框架。

清华研究团队提出的“能力密度” (Capability Density) ,定义为给定LLM的 有效参数大小与实际参数大小的比率。

有效参数大小指的是达到与目标模型同等性能所需的参考模型的参数数量。

清华研究团队特别引入了参考模型 (Reference Model) 的概念,通过拟合参考模型在不同参数规模下的性能表现,建立起参数量与性能之间的映射关系。

具体来说,若一个目标模型M的参数量为NM ,其在下游任务上的性能分数为SM,研究人员会计算出参考模型要达到相同性能所需的参数量 N(SM),即“有效参数量”。

目标模型M的密度就定义为这个“有效参数量”与其实际参数量的比值:

ρ(M) = N(SM)/NM。

比如一个3B的模型能达到6B参考模型的性能,那么这个3B模型的能力密度就是2 (6B/3B)

为了准确估计模型性能,研究团队采用了两步估计法。

第一步是损失 (Loss) 估计,通过一系列不同规模的参考模型来拟合参数量与语言模型Loss之间的关系;

第二步是性能估计,考虑到涌现能力的存在,研究人员结合开源模型来计算它们的损失和性能,最终建立起完整的映射关系。

通过研究分析近年来29个被广泛使用的开源大模型,清华研究团队发现,LLMs的最大能力密度随时间呈指数增长趋势,可以用公式 ln(ρmax) = At + B 来描述.

其中ρmax是时间t时LLMs的最大能力密度。

密度定律表明, 大约每过3.3个月(100天),就能用参数量减半的模型达到当前最先进模型的性能水平。

ChatGPT发布后,能力密度增长更快了

基于密度法则,清华研究团队提出了多个重要推论。

首先, 模型推理开销随时间指数级下降。

2022年12月的GPT-3.5模型每百万Token的推理成本为20美元,而2024年8月的Gemini-1.5-Flash模型仅为0.075美元,成本降低了266倍,约2.5个月下降一倍。

与此同时,大模型推理算法不断取得新的技术突破——模型量化、投机采样、显存优化。

其次,研究还发现,自ChatGPT发布以来, 大模型能力密度正在加速增强。

以MMLU为评测基准测量的能力密度变化情况,ChatGPT发布前按照每4.8倍增,发布后按照每3.2月倍增,密度增强速度增加50%。

这一现象背后,更高效模型引起了学术界和产业的广泛关注,诞生了更多高质量开源模型。

再次,芯片电路密度(摩尔定律)和模型能力密度(密度定律)持续增强,两条曲线交汇揭示 端侧智能巨大潜力。

研究显示,在摩尔定律的作用下,相同价格芯片的计算能力每2.1年翻倍,而密度法则表明模型的有效参数规模每3.3个月翻倍。

两条曲线的交汇,意味着主流终端如PC、手机将能运行更高能力密度的模型,推动端侧智能在消费市场普及。

此外,团队指出, 无法仅依靠模型压缩算法增强模型能力密度。

也就是说,现有的模型压缩技术 (如剪枝和蒸馏) 未必能提高模型密度。

实验表明,大多数压缩模型的密度低于原始模型,模型压缩算法虽可以节省小参数模型构建开销。

但是如果后训练不充分,小参数模型能力密度非但不会增长,反而会有显著下降。

最后,研究团队指出, 模型高性价比有效期不断缩短。

根据尺度定律,更多数据+更多参数实现能力增强,训练成本会急剧上升;

而能力密度定律,随着能力密度加速增强,每隔数月会出现更加高效的模型。

这意味着模型高性价比的有效使用期缩短,盈利窗口短暂。

例如,2024年6月发布的Google Gemma-2-9B模型,其训练成本约185 万人民币;

但仅两个月后,它的性能就被参数量减半的MiniCPM-3-4B超越。

以API盈利方式估算,2个月内需要17亿次用户访问,才能够收回训练成本!

尺度定律下,LLM规模至上。而在密度定律下,LLM正进入一个全新的发展阶段。

在清华刘知远老师最新报告中,AI时代的三大核心引擎——电力、算力与智力,密度都在快速增长:

  • 电池能量密度在过去20年中增长了4倍,其倍增周期约为10年;

  • 摩尔定律则揭示,芯片的晶体管密度每18个月翻倍;

  • 而AI模型能力密度每100天翻倍的速度更是惊人。

尤其是模型能力密度的提升也意味着用更少的资源实现更强的能力,这不仅降低了AI发展对能源和算力的需求,也为AI技术的可持续发展提供了无限可能。同时也揭示了端侧智能的巨大潜力。

在这一趋势下,AI计算从中心端到边缘端的分布式特性协同高效发展,将实现“AI无处不在”的愿景。

作者预计,随着全球AI计算云端数据中心、边缘计算节点的扩张,加上模型能力密度增长带来的效率提升,我们将看到更多本地化的AI模型涌现,云端和边缘端各司其职,可运行LLM的终端数量和种类大幅增长,“AI 无处不在”的未来正在到来。

论文地址:https://arxiv.org/abs/2412.04315

阅读报告全文,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828


未来知识库 是“ 欧米伽 未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。 目前拥有超过8000 篇重要资料。 每周更新不少于100篇世界范围最新研究 资料 欢迎扫描二维码或访问 https://wx.zsxq.com/group/454854145828 进入。



截止到11月25日 ”未来知识库”精选的100部前沿科技趋势报告

  1. Air Street Capital《2024 年人工智能现状报告》

  2. 未来今日研究所:2024 技术趋势报告 - 广义计算篇

  3. 科睿唯安中国科学院 2024 研究前沿热度指数报告

  4. 文本到图像合成:十年回顾

  5. 《以人为中心的大型语言模型(LLM)研究综述》

  6. 经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

  7. 波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告

  8. 理解世界还是预测未来?世界模型的综合综述

  9. Google Cloud CSA2024 AI 与安全状况调研报告

  10. 英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

  11. 花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

  12. 国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

  13. 国际可再生能源署 IRENA2024 年全球气候行动报告

  14. Cell: 物理学和化学 、人工智能知识领域的融合

  15. 智次方 2025 中国 5G 产业全景图谱报告

  16. 未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

  17. Deepmind:AI 加速科学创新发现的黄金时代报告

  18. PitchBookNVCA2024 年第三季度全球风险投资监测报告

  19. 德科 2024 年未来全球劳动力报告

  20. 高工咨询 2024 年协作机器人产业发展蓝皮书

  21. 国际能源署 IEA2024 年全球能源效率报告

  22. 基因慧基因行业蓝皮书 2024 - 2025

  23. 普华永道 PwC2024 全球经济犯罪调查英国报告 - 智对风险直面挑战

  24. 中国互联网协会 2024 面向未来网络的数字孪生城市场景应用白皮书

  25. 中移智库 2024 先进感知新技术及新应用白皮书

  26. 智次方研究院 2025 中国 AIoT 产业全景图谱报告

  27. 未来今日研究所:2024 技术趋势报告 - 人工智能篇

  28. 国际电联:迈向衡量数字经济的通用框架的路线图

  29. 联合国粮食与农业组织:2024 年世界粮食安全和营养状况

  30. 大语言模型综述

  31. 李飞飞等,AI 智能体:探索多模式交互的前景综述

  32. 哈尔滨工业大学 - ChatGPT 调研报告

  33. 2024《美国核部署战略报告》最新文件

  34. 清华大学:AIGC 发展研究 3.0 发布版 b 版

  35. OpenAI:2024 年 OpenAI o1 大模型技术报告

  36. Verizon2024 年世界支付安全报告

  37. 皇家学会哲学学报 从复杂系统角度评估人工智能风险

  38. 复旦大学 大模型 AI 代理的兴起和潜力:综述

  39. 经合组织 OECD2024 年气候行动监测报告

  40. Wevolver2024 年边缘人工智能现状报告 - 探索各行业边缘 AI 应用动态

  41. 2024 全球人形机器人产品数据库报告 - 人形机器人洞察研究 BTIResearch

  42. 《全球金融稳定报告》 把舵定航 不确定性、人工智能与金融稳定

  43. 瑞士洛桑联邦理工学院 《人工智能中的 - 创造力:进展与挑战》

  44. 《你所需要知道的理 - 论:人工智能、人类认知与决策》牛津大学最新 53 页报告

  45. 世界经济论坛 新兴技术时代的网络弹性导航:应对复杂挑战的协作解决方案 2024

  46. ADL 理特咨询 2024 汽车出行未来展望报告

  47. 2024 中国硬科技创新发展白皮书 - 开辟未来产业新赛道

  48. 科学时代的大语言模型中的人工智能

  49. Gartner2025 年重要战略技术趋势报告

  50. CBInsights2024 年第三季度全球人工智能投融资状况报告

  51. TrendHunter2025 年全球趋势报告 - 全行业顶级创新和变革趋势前瞻

  52. 天津大学 2024 大模型轻量化技术研究报告

  53. 欧洲海洋局 2024 导航未来报告将海洋置于更广泛的地球系统中第六版

  54. 美国安全与新兴技术中心 2024 AI 生成代码的网络安全风险研究报告

  55. 国际原子能机构 2024 年世界聚变展望报告







请到「今天看啥」查看全文