专栏名称: 深度学习与图网络
关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
目录
相关文章推荐
河南新闻广播  ·  河南文物之窗︱这里出土的千年谷粒竟然还能发芽! ·  17 小时前  
河南新闻广播  ·  “2025元宵奇妙游”节目单官宣!今晚不见不散 ·  17 小时前  
河南新闻广播  ·  一看一个Amazing!神仙级大展我先冲为敬 ·  昨天  
河南新闻广播  ·  破150亿! ·  2 天前  
896汽车调频  ·  陕西今年将建成1条高铁线! ·  2 天前  
51好读  ›  专栏  ›  深度学习与图网络

谷歌更新Transformer架构,更节省计算资源!50%性能提升

深度学习与图网络  · 公众号  ·  · 2024-04-08 12:23

正文

明敏 发自 凹非寺
量子位 | 公众号 QbitAI

谷歌终于更新了Transformer架构。

最新发布的 Mixture-of-Depths (MoD),改变了以往Transformer计算模式。

它通过 动态分配 大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

结果显示,在等效计算量和训练时间上,MoD每次向前传播所需的计算量更小,而且后训练采样过程中步进速度 提高50%

这一方法刚刚发布,就马上引发关注。

MoE风头正盛,MoD已经来后浪拍前浪了?

还有人开始“算账”:

听说GPT-4 Turbo在Blackwell上提速30倍,再加上这个方法和其他各种加速,下一代生成模型可以走多远?

所以MoD如何实现?

迫使大模型关注真正重要信息

这项研究提出,现在的大模型训练和推理中,有很多计算是没必要的。

比如预测下一个句子很难,但是预测句子结束的标点符号很简单。如果给它们分配同样的计算资源,那么后者明显浪费了。

在理想情况下, 模型应该只给需要准确预测的token分配更多计算资源。

所以研究人员提出了 MoD

它在输入序列中的特定位置动态分配FLOPs(运算次数或计算资源),优化不同层次的模型深度中的分配。

通过限制给定层的自注意力和MLP计算的token数量,迫使神经网络学会主要关注真正重要的信息。

因为token数量是事先定义好的,所以这个过程使用一个已知张量大小的静态计算图,可以在时间和模型深度上动态扩展计算量。

下图右上图中的橙色部分,表示没有使用全部计算资源。

这种方法在节省计算资源的同时,还能提高效率。

这些模型在等效的FLOPS和训练时间上与基线性能相匹配,但每次前向传播所需的FLOP更少,并且在训练后采样时提速50%。

对比来看,如果为每一个token生成一个概率分布,每个token根据最高概率被送去对应的“专家”,可能会导致负载不平衡。

如果反过来,这能保障负载平衡,但是可能导致某些token被过度处理或处理不足。

最后来看论文中使用的Expert-choice MoD,router输出的权重被用于确定哪些token将使用transformer亏啊计算。权重较大的token将参与计算,权重较小的token将通过残差连接绕过计算,从而解决每次向前传播的FLOPs。

最后,研究团队展示了MoD在不同实验中的性能表现。

首先,他们使用相对较小的FLOP预算(6e18),以确定最佳超参数配置。

通过这些实验,作者发现MoD方法能够“拉低并向右推移”isoFLOP基线曲线,这意味着最优的MoD方法在更低的损失水平上拥有更多的参数。

通过isoFLOP分析,比较6e18、2e19和1e20 FLOPs的总计算预算下的模型性能。

结果显示,在更多FLOP预算下,FLOP最优的MoD仍然比基线模型有更多的参数。

存在一些MoD变体,在步骤速度上比isoFLOP最优基线模型更快,同时实现更低的损失。这表明在训练之外,MoD的计算节省仍然有效。

同时,研究团队还探讨了MoD和MoE结合的可能性——MoDE。

结果表明而这结合能提供更好的性能和更快的推理速度。

网友:联想到了ResNet

MoD推出后马上引发了不小关注。

有人感慨,MoE还没有弄清楚呢,MoD都已经来了!

这么高效的方法,让人马上联想到了ResNet。







请到「今天看啥」查看全文