专栏名称: 计算机视觉深度学习和自动驾驶
讨论计算机视觉、深度学习和自动驾驶的技术发展和挑战
目录
相关文章推荐
光伏們  ·  山西分布式光伏装机容量突破千万千瓦 ·  昨天  
光伏們  ·  山西分布式光伏装机容量突破千万千瓦 ·  昨天  
申妈的妹子圈  ·  阿里第三季度营收2801亿,超市场预期 ·  2 天前  
申妈的妹子圈  ·  阿里第三季度营收2801亿,超市场预期 ·  2 天前  
南京市场监管  ·  在菜场碰到这个“码”,记得扫! ·  2 天前  
南京市场监管  ·  在菜场碰到这个“码”,记得扫! ·  2 天前  
九章算法  ·  「九章快讯」美国禁止TikTok的真相曝光! ·  4 天前  
51好读  ›  专栏  ›  计算机视觉深度学习和自动驾驶

高效大语言模型:综述

计算机视觉深度学习和自动驾驶  · 公众号  ·  · 2024-05-24 01:09

正文

23年12月论文“Efficient Large Language Models: A Survey“,来自Ohio State、英国伦敦帝国学院、Michigan State、AWS、谷歌、Boston AI、微软、Michigan大学等。

大语言模型(LLM)在自然语言理解、语言生成和复杂推理等重要任务中表现出了非凡的能力,并有可能对社会产生重大影响。 然而,这种能力伴随着它们所需的大量资源,突出表明迫切需要开发有效的技术来应对其效率挑战。 这个综述对高效的LLM研究进行了系统而全面的回顾。 将文献分类在三个主要类别,分别从以模型为中心、以数据为中心和以框架为中心的角度涵盖了高效LLM的主题。

定义的三个类别具体如下:

  1. •以模型为中心的方法:以模型为中心的方法侧重于算法级和系统级的高效技术,其中模型本身是焦点。LLM具有数十亿甚至数万亿的参数,与较小规模的模型相比,LLM表现出不同的特征[299],这就需要开发新技术。高效技术涵盖了与模型压缩、高效预训练、高效微调、高效推理和高效架构设计相关的研究方向。

  2. •以数据为中心的方法:在LLM领域,数据的重要性与模型本身的重要性一样。以数据为中心的方法侧重于数据质量和结构在提高LLM效率方面的作用。高效的技术涵盖了与数据选择和提示工程相关的研究方向。

  3. •LLM框架:LLM的出现要求开发专门的框架,有效地处理其训练、推理和服务。虽然TensorFlow、PyTorch和JAX等主流人工智能框架提供了基础,但它们缺乏对LLM关键的特定优化和功能的内置支持。高效LLM设计的现有框架,包括独特功能、底层库和专业化。

如图分类概述:

模型为中心的方法

模型压缩总结如下,包括:量化quantization, 参数剪枝parameter pruning, 低秩近似low-rank approximation, 和 知识蒸馏knowledge distillation。

模型压缩技术示意图如下图所示:

量化方法包括: 训练后量化(PTQ)、量化-觉察训练(QAT)和量化-觉察微调(QAFT)。

高效的预训练技术可以分为四类:混合精度加速、缩放模型、初始化技术和优化策略。总结如下:

高效预训练方法概览图如下:

高效的微调方法可以分为参数高效微调(PEFT)和存储高效微调(MEFT)。 总结如下:前者包括自适应器、低秩自适应、前缀和提示

高效微调方法概览如图:

高效推理技术可以分为算法级和系统级的加速技术。 总结如下:

算法级加速方法细分为推测解码、KV缓存优化和基于共享的注意加速。 算法级高效推理方法概览如下:

高效架构的LLM设计是指对模型结构和计算过程进行战略性优化,提高性能和可扩展性,同时最大限度地减少资源消耗。 如图总结:

注意优化的概览图如下:

专家混合和长上下文的LLMs概览如下:

数据为中心的方法

如图总结了用于高效预训练和微调的最新数据选择技术:

LLM数据选择的概览图如下:







请到「今天看啥」查看全文