整理 | 褚杏娟
6月7日,阿里云更新技术博客,并重磅发布开源模型 Qwen2-72B,性能超过美国最强的开源模型 Llama3-70B,也超过文心 4.0、豆包 pro、混元 pro 等众多中国闭源大模型。所有人均可在魔搭社区和 Hugging Face 免费下载通义千问最新开源模型。
官方表示,相比 2 月推出的通义千问 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在权威模型测评榜单 OpenCompass 中,此前开源的 Qwen1.5-110B 已领先于文心 4.0 等一众中国闭源模型。刚刚开源的 Qwen2-72B,整体性能相比 Qwen1.5-110B 又取得了大幅提升。
在上海人工智能实验室推出的 OpenCompass 大模型测评榜单上,此前开源的 Qwen1.5-110B 已领先于文心 4.0 等一众中国闭源模型
通义千问 Qwen2 系列模型大幅提升了代码、数学、推理、指令遵循、多语言理解等能力。在 MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench 等国际权威测评中,Qwen2-72B 斩获十几项世界冠军,超过美国的 Llama3。
Qwen2-72B 在十多个权威测评中获得冠军,超过美国的 Llama3-70B 模型
通义千问团队在技术博客中披,Qwen2 系列包含 5 个尺寸的预训练和指令微调模型,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B,其中 Qwen2-57B-A14B 为混合专家模型(MoE)。Qwen2 所有尺寸模型都使用了 GQA(分组查询注意力)机制,以便让用户体验到 GQA 带来的推理加速和显存占用降低的优势。
Qwen2 系列包含 5 个尺寸的预训练和指令微调模型
在中英文之外,模型训练数据中增加了 27 种语言相关的高质量数据,提升了模型的多语言能力。Qwen2 还增大了上下文长度支持,Qwen2-72B-Instruct 能够完美处理 128k 上下文长度内的信息抽取任务。
魔搭社区模型下载地址:
https://modelscope.cn/models/qwen/Qwen2-72B
https://modelscope.cn/models/qwen/Qwen2-72B-Instruct
据悉,通义千问 Qwen 系列模型总下载量在过去一个月内翻了一倍,已突破 1600 万次。全球开源社区已经出现了超过 1500 款基于 Qwen 二次开发的模型。Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。
6 月 7 日,Qwen2 系列模型的 API 第一时间登陆阿里云百炼平台。TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama 等众多全球开源平台和工具也宣布支持 Qwen2 最新款模型。除了美国 Llama 开源生态之外,通义千问已成为全球开发者的另一主流选项。
大型语言模型(LLM)在多个领域的应用实践日益广泛,继而面临着更大的技术挑战。我们搜集了来自业界头部公司的技术专家结合企业实际业务需求探索出的实践方案,他们给出了切实可行的思路和建议。「AI前线」整理了AICon 北京 2024上大模型推理、基础设施及RAG实践相关PPT以及资料。关注「
AI前线
」,回复关键词「
LLM实践
」即可免费获取。
6 月 14 日 -15 日,ArchSummit 深圳现场,一起探索大模型时代的软件架构最佳范式。如您感兴趣,可点击「
阅读原文
」查看更多详情。购买票数越多,享受的优惠也就越丰厚,可以联系票务经理 17310043226 , 锁定最新优惠,期待与你的现场交流~