专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
林小奇笔记  ·  我说过,我不闪躲 ·  16 小时前  
法商实验室  ·  为避免欧盟反垄断罚款,微软“捆绑Team版O ... ·  22 小时前  
法商实验室  ·  为避免欧盟反垄断罚款,微软“捆绑Team版O ... ·  22 小时前  
甘肃公安  ·  元宵团圆时,反诈灯谜邀您猜 ·  昨天  
太和公安微警务  ·  我钱由我不由诈!太和公安提醒您,警惕“网上免 ... ·  2 天前  
太和公安微警务  ·  我钱由我不由诈!太和公安提醒您,警惕“网上免 ... ·  2 天前  
江苏新闻  ·  最新通报:多人被警告处分,两人待岗! ·  2 天前  
江苏新闻  ·  最新通报:多人被警告处分,两人待岗! ·  2 天前  
51好读  ›  专栏  ›  极市平台

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

极市平台  · 公众号  ·  · 2024-07-11 22:00

正文

↑ 点击 蓝字 关注极市平台
作者丨 新智元
来源丨新智元
编辑丨极市平台

极市导读

超越Transformer和Mamba的新架构诞生了。斯坦福UCSD等机构研究者提出的TTT方法,直接替代了注意力机制,语言模型方法从此或将彻底改变。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

一觉醒来,超越Transformer和Mamba的新架构诞生了?

斯坦福、UCSD、UC伯克利和Meta的研究人员提出了一种全新架构,用机器学习模型取代RNN的隐藏状态。

论文地址: https://arxiv.org/abs/2407.04620

这个模型通过对输入token进行梯度下降来压缩上下文,这种方法被称为「测试时间训练层(Test-Time-Training layers,TTT)」。

TTT层直接替代了注意力机制,解锁了具有表现力记忆的线性复杂度架构,使我们能够在上下文中训练包含数百万(未来可能是数十亿)个token的LLM。

作者相信,这个研究了一年多的项目,将从根本上改变我们的语言模型方法。

而结果证明,TTT-Linear和TTT-MLP直接赶超或击败了最强的Transformer和Mamba!作者之一的Xiaolong Wang惊喜地表示:不敢相信,我们真的做到了。

更令人兴奋的是,虽然目前TTT只应用于语言建模,但在未来,它也可以用在长视频上,可谓前景远大。

在将来,当我们对长视频进行建模时,就可以对帧进行密集采样,而不是采样1FPS了。这些密集帧对Transformer是一种负担,但对于TTT层来说,这却是一种福音!

一个5年多的想法,终于实现了

作者表示,在过去的1.5年里,团队一直在开发一种新的LLM架构,可以具有线性复杂度和更强的隐藏状态,用于长上下文建模。

而这个测试时训练(TTT)的想法,已经研究了超过5年。

Xiaolong清晰记得,在刚开始做博士后时,Alyosha曾让自己去找Yu Sun讨论TTT。

这次会面,就是这项研究的起点。

序列模型会把历史上下文存储在一个隐藏状态中。

像Mamba这样的RNN层,会随着时间的推移压缩成一个固定大小的状态,它们虽然效率很高,但性能受限于其表达能力。

注意力机制有一个KV缓存,它会随着时间的推移不断增长。这个状态不会压缩任何历史上下文,但随着上下文长度的增加,成本也会越来越高。

团队成员想:既然这样,为什么不把上下文压缩到模型的权重中——就像LLM处理互联网数据那样呢?

这种「隐藏状态模型」既能在时间上保持固定大小,又能大大增强表达能力。

研究人员使用了自监督学习来更新隐藏状态的权重,对每个token进行一次梯度下降。在处理一个序列时,该状态已经在其上下文窗口中的token上「训练」过了。

值得注意的是,隐藏状态只存在于端到端架构中的一层。其他组件,比如QKV投影矩阵,是在预训练期间通过标准的交叉熵目标函数学习的。

因此,端到端架构实际上是在进行元学习,寻找压缩上下文的最佳方式,以便更好地预测下一个token,也就是在「学习如何在测试时学习」。

结果显示,与Mamba相比,TTT-Linear具有更好的困惑度和更少的FLOP(左),并且更好地利用了长上下文(右)。

下图显示了批大小为16的情况下,随着上下文长度的变化,每个token的前向时间(延迟)。所有模型的参数都是1.3B(Mamba为1.4B)。

可以看到,随着上下文长度的增加,Transformer每个token的前向时间呈线性增长,但其他两种方法的前向时间基本保持不变。

在8k上下文时,TTT-Linear比Transformer更快,与Mamba相当。

RNN的尴尬现实

2020年,OpenAI缩放定律论文表明LSTM(RNN的一种)无法像Transformer那样进行缩放,或有效地使用长上下文。

真的是这样吗?

在这个项目中,研究人员重新评估了图2中的这些发现。

在左侧,可以观察到Mamba(当今最流行的RNN之一)的扩展性与强大的Transformer类似,这是自2020年的LSTM以来显示出的巨大进步。

然而,在右侧,可以观察到与OpenAI相同的Mamba问题。

平均而言,序列中靠后的token应该更容易预测,因为它们以更多信息为条件。

对Transformer来说确实如此,每个token索引的平均复杂度在其32k上下文中不断减少。相比之下,Mamba在16k后就出现了同样的情况。

对于现有的RNN来说,这个结果代表了一个尴尬的现实——

一方面,RNN(相对于Transformer)的主要优势就是它们的线性(相对于二次)复杂性。这种渐进优势实际上只会在长上下文中实现。

另一方面,一旦上下文足够长,现有的RNN(如Mamba)就很难真正利用额外的条件信息。

长上下文的困难是RNN层本质上的问题:与自注意力机制不同,RNN层必须将上下文压缩为固定大小的隐藏状态。

作为一种压缩启发式,更新规则需要发现成千上万甚至数百万个token之间的底层结构和关系。

研究人员首先观察到,自监督学习可以将大量训练集压缩为LLM等模型的权重,该模型通常表现出对其训练数据之间语义联系的深刻理解,而这,恰恰是他们所需要的。

TTT层

受此启发,研究人员设计了一类新的序列建模层,其中隐藏状态是模型,更新规则是自监督学习的一个步骤。

由于更新测试序列上隐藏状态的过程,相当于在测试时训练模型,因此此类新层称为测试时训练(TTT)层。

研究人员引入两个简单的实例:TTT-Linear和TTT-MLP,其中隐藏状态分别是线性模型和两层MLP。TTT层可以集成到任何网络架构中并进行端到端优化,类似于RNN层和自注意力。

实际运行时间

TTT层在FLOP方面已经非常高效,研究人员则更进一步地提出了两项创新,使其在实际运行时间内也能保持高效。

首先,与在常规训练中对mini-batch序列采取梯度步进以实现更好的并行性类似,他们也在TTT中使用了mini-batch的token。

其次,研究人员为每个TTT mini-batch内的操作开发了一种对偶形式,以更好地利用现代GPU和TPU。这种对偶形式的输出与原始实现相当,但训练速度却快了5倍以上。

正如图3所示,TTT-Linear在8k上下文中比Transformer更快,并且与Mamba相当。

Transformer杀手——TTT

如图4所示,所有的序列建模层,都可以从将历史上下文存储到隐藏状态的角度来看待。

比如,RNN层——如LSTM、RWKV和Mamba层——将上下文压缩成一个固定大小的状态,这个状态随时间变化。

这种压缩带来了两种结果:优势是处理效率高,因为每个token的处理时间是恒定的。劣势是在处理长上下文时,RNN性能受限于隐藏状态的「表达能力」。

自注意力机制(Self-attention)也可以从如上角度来理解。

不同之处在于,它的隐藏状态,通常称为键值(KV)缓存是一个随t增长的线性list。

它可以存储所有的上下文,并且不会进行压缩,具有很好的表达能力,不过其处理时间随上下文长度线性增长。

因此,为了在长上下文中既保持效率,又具有表达能力,需要一个更好的「压缩启发式」(compression heuristic)方法。

具体来说,就需要将数百万个token压缩成一个能有效捕捉其底层结构和关系的隐藏状态。

TTT隐藏状态

研究人员的关键思想是, 使用自监督学习来将历史上下文 压缩成一个隐藏状态

方法是将上下文视为一个无标签数据集, 而将状态视为一个模型。

具体来说, 隐藏状态 现在等同于一个模型 的权重 , 这个模型 可以是线性模型、小型神经网络或其他任何形式。输出规则简单地表示为:

直观讲, 输出token就是由更新后权重 的模型 所做的预测。更新规则是在某个自监督损失 上进行的一步梯度下降:

其中学习率为η。从压缩的角度来看,每种启发式方法都需要决定记住/忘记哪些输入。W会记住那些产生大梯度的输入——直观地说,就是那些使W学习很多的输入。

的一种选择是重构 本身。为了使学习问题变得非平凡, 作则首先将 处理成一个被破坏的输入 , 然后优化:

类似于去噪自编码器, f需要发现 各维度之间的相关性, 以便从部分信息 中重构出 。如图5所示, 梯度下降能够减少 , 但无法将其降至零。

与其他RNN层和自注意力机制一样, 研究人员将输入序列 映射到输出序列 的算法可以被编程到序列建模层的前向传播中, 使用上述的隐藏状态、更新规则和输出规则。

即使在测试时, 新层仍然为每个输入序列训练一个不同的权重序列

因此,研究人员将其称之为测试-时间训练层(TTT)。

使用TTT层训练神经网络

TTT层的前向传播,也有相应的后向传播。

TTT层与RNN层、自注意力机制有着相同的接口,因此可以在任何更大的神经网络架构中替换它们。

值得一提的是,训练带有TTT层神经网络的方式,与训练任何其他Transformer模型相同。

可以使用相同的数据、方法和目标(如下一个token预测)来优化网络其余部分的参数。

在此,研究人员将训练更大的神经网络称为外循环(outer loop),而在每个TTT层内训练W称为内循环(inner loop)。

它们之间梯度计算的区别是,内循环针对的是W(即模型f的参数),外循环针对的是网络其余部分的参数

TTT学习自监督任务

可以说,TTT最重要的部分是自监督任务,因为它决定了W从测试序列中学习的特征类型。

在这个任务的设计上,研究人员采取了更加端到端的方法——直接优化自监督任务以实现下一个token预测的最终目标。

具体来说,研究着将自监督任务的学习,作为外循环的一部分。

从如上公式3中的简单重构任务开始,添加了一些外循环参数来让这个任务可学习。最新的自监督损失是:

在内循环中, 只有W被优化, 因此作为 的参数写出; 们是这个损失函数的「超参数」。在外循环中, 一起被优化, 而W仅仅是一个隐藏状态, 不是参数。

图6用代码说明了这种区别, 其中 被实现为 TTT 层的参数, 类似于自注意力中的 KV 参数。

总的来说, 所有可能的选择构成了一系列多视图重构任务,外循环可以被理解为从这个任务组中选择一个具体任务。为了简单起见,研究人员在这里将所有视图设计为线性投影。

mini-batch TTT并行化

目前,开发的原生TTT层在浮点运算(FLOP)次数方面已经非常高效。

然而, 其更新规则 无法实现并行化, 因为 在两个位置上依赖于 :负号和

对此,研究人员提出了mini-batch梯度下降,用b表示TTT批大小。

研究中使用 , 其中 代表着前一个mini-batch的最后一个时间步 (或者第一个mini-batch 0), 因此, 可以一次并行b个梯度计算。

对偶形式

上面介绍的并行化是必要的,但对于「实际运行时间」(wall-clock time)的效率来说还不够。

正如之前所述,可以对于t = 1, . . . , b进行并行计算:

然而, 现实中, 是无法对单个matmul来计算 所有的 b 。

相反, 需要 b 个外积来对其进行一一计算。更糟糕的是, 对于每个 , 这会比大 产生更大的内存占用和I/O成本。

为了解决这两个问题, 研究人员观察到:我们实际上并不需要具体化 , 只要要我们可以在mini-batch结束时计算 , 并且输出token z1, . , zb(如上图7所示)。

所以 可以用matmul方便地计算出来。为了计算Z = [z1, . . . , zb],我们知道:

表示 和矩阵 , 可以得出:

如上过程,研究人员将其称为「对偶形式」。

理论等价

前面已经提到f可以是线性模型,也可以是神经网络。还有更新规则的三种变体:online GD、batch GD和mini-batch GD。

如下图所示,在这些2×3组合中,每一种都会引起TTT层的不同实例化。

研究中,作者分别从2个定理证明了在这些诱导实例中,具有线性模型和batch GD的TTT层等同于线性注意力——一个广为人知的RNN层。

图10总结了所有序列建模层的更广泛范围内TTT层的一般定义。

两种变体

研究中,作者提出了TTT层的两种变体TTT-Linear和TTT-MLP,仅在f的实例化方面有所不同。

对于 TTT-Linear, , 其中 W 是平方。对于 TTT-MLP, 有两层, 类似于 Transfomer的MLP。

具体来说, 隐藏维度是







请到「今天看啥」查看全文