专栏名称: 计算机视觉研究院
主要由来自于大学的研究生组成的团队,本平台从事机器学习与深度学习领域,主要在人脸检测与识别,多目标检测研究方向。本团队想通过计算机视觉战队平台打造属于自己的品牌,让更多相关领域的人了解本团队,结识更多相关领域的朋友,一起来学习,共同进步!
目录
相关文章推荐
上海本地宝  ·  上海失业金申请后,何时能到账? ·  3 天前  
上海本地宝  ·  18万㎡!上海又一免费梅花展来了! ·  2 天前  
东方网  ·  突发公告!董事长失联! ·  2 天前  
上海发布  ·  明天开始!新一轮消费券就按攻略这么领→ ·  2 天前  
51好读  ›  专栏  ›  计算机视觉研究院

苹果小模型来了:权重、代码、数据集全开源,性能超越Mistral-7B

计算机视觉研究院  · 公众号  ·  · 2024-07-30 11:00

正文

点击蓝字


关注我们

关注并星标

从此不迷路

计算机视觉研究院


公众号ID 计算机视觉研究院

学习群 扫码在主页获取加入方式



  • 论文链接:https://arxiv.org/pdf/2406.11794

  • 项目链接:https://huggingface.co/apple/DCLM-7B


计算机视觉研究院专栏

Column of Computer Vision Institute

小模型成趋势?

本周,OpenAI 上线小模型 GPT-4o-mini,小模型赛道正式开卷。近期加入这一赛道的还有苹果。


最近,苹果公司作为 DataComp-LM(DCLM)项目的研究机构之一,在 Hugging Face 上发布了 DCLM-7B 开源模型。该模型性能已经超越了 Mistral-7B,并且正在逼近其他领先的开源模型,包括 Llama 3 和 Gemma。


论文作者之一、苹果机器学习团队 Vaishaal Shankar 将 DCLM 模型描述为「真正开源的最佳模型」,因为 DCLM 不仅开源了模型权重,还开源了训练代码和预训练数据集。



研究介绍


大型语言模型(LLM)目前面临的一个评估挑战是缺乏受控比较。LLM 研究通常会比较采用不同架构、计算或超参数的模型,因此难以理清影响语言模型质量的因素。


基于此,研究团队提出了语言模型数据比较新基准 ——DCLM,这是语言模型训练数据整编(curation)的第一个基准,旨在让 LLM 通过设计高质量数据集来提高模型性能,特别是在多模态领域。


研究团队发现基于模型的过滤,即由机器学习 (ML) 模型从较大的数据集中自动过滤和选择高质量数据,可能是构建高质量训练集的关键。


DCLM 整体思路很简单:使用一个标准化的框架来进行实验,包括固定的模型架构、训练代码、超参数和评估,最终找出哪种数据整理策略最适合训练出高性能的模型。



使用 DCLM,研究团队构建了一个高质量数据集 DCLM-BASELINE,并用该数据集从头开始训练了一个 7B 参数模型 —— DCLM-7B。



DCLM-7B 模型的细节。


DCLM-7B 使用基于 OpenLM 框架的预训练方案,在 MMLU 基准上 5-shot 准确率达到 64%,可与 Mistral-7B-v0.3(63%)和 Llama 3 8B(66%)相媲美,并且在 53 个自然语言理解任务上的平均表现也可与 Mistral-7B-v0.3、Llama 3 8B 相媲美,而所需计算量仅为 Llama 3 8B 的 1/6。



以下是 DCLM-7B 在各种任务(部分)上的评估结果:



DCLM-7B 与其他同等大小模型比较结果如下表所示:



值得注意的是,大部分其他模型虽然开放权重但封闭数据。这就是 Vaishaal Shankar 将 DCLM 模型描述为「真正开源」的原因。


参考链接:https://venturebeat.com/ai/apple-shows-off-open-ai-prowess-new-models-outperform-mistral-and-hugging-face-offerings/


END



转载请联系本公众号获得授权


计算机视觉研究院学习群等你加入!


ABOUT

计算机视觉研究院







请到「今天看啥」查看全文


推荐文章
上海本地宝  ·  上海失业金申请后,何时能到账?
3 天前
上海本地宝  ·  18万㎡!上海又一免费梅花展来了!
2 天前
东方网  ·  突发公告!董事长失联!
2 天前
科学解码  ·  【涨知识】雨的芬芳是这样来的!
7 年前
熊猫镇  ·  空巢青年背后的单身经济
7 年前
程序员大咖  ·  如何在iOS开发中更好的做假数据?
7 年前
学习大国  ·  图解:数读十九大报告
7 年前