专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
目录
相关文章推荐
量子位  ·  全球顶级AI科学家许主洪加盟阿里!IEEE ... ·  17 小时前  
宝玉xp  ·  GitHub ... ·  23 小时前  
爱可可-爱生活  ·  【[2k星]Homebox:为家庭用户打造的 ... ·  2 天前  
爱可可-爱生活  ·  【[413星]llmchat:最直观的统一A ... ·  2 天前  
宝玉xp  ·  转发微博-20250205150219 ·  2 天前  
51好读  ›  专栏  ›  新智元

腾讯最新万亿参数异构MoE上线,技术细节首次曝光!权威评测国内第一,直逼GPT-4o

新智元  · 公众号  · AI  · 2024-09-12 14:14

主要观点总结

腾讯推出新一代旗舰大模型混元Turbo,采用分层异构MoE架构,性能位于国内第一梯队。混元Turbo在Pretrain和Postrain阶段进行优化,通过技术解读展示了模型升级的秘密。模型在文本创作、数学和逻辑推理能力上专项强化,并优化了推理部署成本和推理时延。此外,混元Turbo还支持AI搜索联网插件,具备精准阅读理解能力的SearchGPT用于AI深度问答。底层建立在腾讯自研的Angel机器学习平台和算力基础设施上,支持FP8量化压缩和定制算子加速推理性能。

关键观点总结

关键观点1: 混元Turbo采用分层异构MoE架构,性能位于国内第一梯队。

腾讯推出新一代旗舰大模型混元Turbo,其采用分层异构MoE架构,性能在业界公认的benchmark指标上处于领先地位。相较上一代模型,混元Turbo在参数规模和效果上都有了显著提升。

关键观点2: 混元Turbo在Pretrain和Postrain阶段进行优化。

混元Turbo通过Pretrain和Postrain阶段的优化,提高了模型效果。在Pretrain阶段,采用Scaling Law秘诀和新的异构MoE结构来提高模型效果;在Postrain阶段,通过自研的混元CriticModel和RewardModel,并采用离线数据和在线采样结合的强化学习策略来提升模型性能。

关键观点3: 混元Turbo专项强化了文本创作、数学和逻辑推理能力。

针对当前大模型在文本创作、数学和逻辑推理方面的挑战,混元Turbo进行了专项强化。通过优化训练数据和强化学习技术,提高了模型在数学和逻辑推理能力方面的表现。同时,针对高质量文本创作,引入了专家标注团队和创作指令约束体系。

关键观点4: 混元Turbo支持AI搜索联网插件和精准阅读理解能力的SearchGPT。

混元Turbo除支持各类大模型能力外,还支持AI搜索联网插件。通过整合腾讯的内容生态和搜索能力,实现了更精准的搜索和AI深度问答功能。此外,基于混元通用大模型底座的SearchGPT具备精准阅读理解能力。

关键观点5: 底层建立在腾讯自研的Angel机器学习平台和算力基础设施上。

惊艳的模型效果离不开底层算法和平台的支持。腾讯混元大模型建立在腾讯全面自研的Angel机器学习平台和强大的算力基础设施之上。面对万亿级MoE模型的挑战,通过引入大BatchSize训练、FP8低精度训练等优化策略,提高了训练性能和降低了成本。


正文



新智元报道

编辑:桃子 好困
【新智元导读】 鹅厂新一代旗舰大模型混元Turbo技术报告首次曝光。模型采用全新分层异构的MoE架构,总参数达万亿级别,性能仅次于GPT-4o,位列国内第一梯队。

近期,腾讯混元推出新一代旗舰大模型——混元Turbo。
作为国内率先采用MoE结构大模型的公司,腾讯继续在这一技术路线上进行技术创新。
相较上一代混元Pro的同构MoE大模型结构,混元Turbo采用了全新的分层异构MoE结构,在参数总规模上依然保持万亿级。
公开信息显示,当前混元Turbo模型在业界公认的benchmark指标上处于国内行业领先地位,与国外头部模型如GPT-4o等相比也处于第一梯队。
另外,在刚刚发布的国内第三方权威评测机构评测中,混元Turbo模型位列国内第一。
混元Turbo是如何做到如此快速的进步?

背后技术细节首公开

我们拿到了混元Turbo的技术解读,从Pretrain、Postrain和专项能力突破几个角度,深入展示了模型升级的秘密。
首先,业界目前普遍公认,大模型Pretrain成功的关键秘诀之一是Scaling Law。
可以简单理解为,训练数据量越大,模型效果越好;参数量越大,模型效果越好。
其中后者意味着,如果想要模型具备更高的效果天花板,就需要设计较高参数量的大模型,但大参数量设计也意味着较高的部署成本和较低的训练推理性能。
为此,混元Turbo采用了全新的异构MoE结构。
通过较多的专家数和较小激活量设计,在模型整体参数量依然保持万亿级规模前提下,通过整体算法升级和训练推理框架加速的端对端优化,模型效果相比上代混元Pro有较大提升。
与此同时,模型训练推理效率也有超1倍的提升,并最终带来了50%的推理部署成本下降,以及20%推理时延降低。
其次,在Postrain阶段,腾讯混元Turbo自研了混元CriticModel和RewardModel,用于构建自提升pipeline,并在RLHF阶段全面采用了离线数据和在线采样结合的强化学习策略。
相对传统PPO及DPO,其整体可控性更好,效果上限更高。
除了在通用能力方面持续优化外,针对当前业界大模型普遍存在的文科能力「重而不强」,理科能力普遍偏弱的现状,本次混元Turbo大模型也专项强化了高质量文本创作、数学、逻辑推理等典型大模型文理科能力。

文本创作、数学、逻辑推理能力全面提升

1. 专项能力-高质量文本创作
当前大模型普遍存在的一般文本创作尚可,但专业化写作机器味浓、不够信雅达,字数控制等指令跟随能力不足等问题。
腾讯混元Turbo模型做了大量高质量文本创作专项优化。
以中、高考中文写作为例,腾讯混元团队引入专家标注团队,构建高质量写作评估模型,同时,构建创作指令约束体系,提升复杂指令跟随能力。
通过以上优化,高考作文写作这一项能力上,混元Turbo在专家标注团队中自评达一类卷水平,在刚刚过去的24年高考中,混元Turbo获得第三方大模型高考作文写作评测第一名。
2. 专项能力-数学
如何大幅提升模型的数学能力是一项非常有挑战性的任务。腾讯混元采用了以下几种技术方案来提升模型效果。
  • 提升数据量:针对已有题库模拟大量数学题用于模型的增训。对于一些比较难的题目,也会采用MCTS等技术来提高模型的做题能力。

  • 强化学习:为了进一步提升模型能力,采用了强化学习技术,包括DPO/PPO等技术。训练了一个基于过程的reward模型对结果进行打分。
最终,混元Turbo在数学推理能力上有了较大提升,在内外部多种评测集上达到了业界先进水平。
3. 专项能力-逻辑推理
推理的第一大难点在于推理问题的多样性,往往用户的问题千奇百怪,要在PostTrain阶段比较好的解决这个难点,必须要提升SFT数据中推理问题的广度和质量。
预训练中的推理问题非常丰富,但是结构化不足,往往一个比较好的问题隐藏在某一个文档的最后。
为了解决这个问题,腾讯基于腾讯混元训练了一个问题抽取模型(Problem Extraction Model),抽取出千万级量级的推理类指令。
另外,通过公开渠道获取全网偏推理的问题,大幅补充了SFT数据中推理问题的多样性。
推理能力的第二个难点是,复杂问题的答案如何构建。
对此,腾讯训练一个critique模型对推理类训练数据进行打分,然后迭代更新答案,直到构建推理过程和结论完全正确的训练。
最终,推理数据质量得分提升10%。
经过上述优化,混元Turbo较以往的版本在内部推理评测中总体提升9%,在一些较为难的子类上例如因果、符号推理等上都取得了明显进步。
4. 联网插件-AI搜索
作为腾讯混元新一代旗舰大模型,混元Turbo除支持各类大模型能力外,也支持AI搜索联网插件。
通过整合腾讯优质的内容生态(如微信公众号、视频号等)和全网搜索能力,同时基于Planner+Action Agent架构,混元Turbo AI搜索基于混元通用大模型底座,使用丰富的搜索数据进行多任务精调,得到更懂搜索、具备精准阅读理解能力的SearchGPT,用于AI深度问答。
目前通过AI搜索的强大加持,混元Pro具备强大的时新、深度内容获取和AI问答能力。

自研工程平台的牢固支撑


惊艳的模型效果,离不开底层算法和平台的支持。
腾讯混元大模型全面建立在腾讯全面自研的Angel机器学习平台和强大的算力基础设施之上。






请到「今天看啥」查看全文