专栏名称: 爱可可-爱生活
知名互联网资讯博主 北邮PRIS模式识别实验室陈老师
目录
相关文章推荐
爱可可-爱生活  ·  [IR]《RAGO: Systematic ... ·  20 小时前  
爱可可-爱生活  ·  [LG]《PENCIL: Long ... ·  昨天  
爱可可-爱生活  ·  [LG] RWKV-7 Goose ... ·  昨天  
机器之心  ·  原作者带队再次改造xLSTM,7B模型速度最 ... ·  2 天前  
51好读  ›  专栏  ›  爱可可-爱生活

突破性进展:Tiled Flash注意力让线性RNN超越Tran-20250320074417

爱可可-爱生活  · 微博  · AI  · 2025-03-20 07:44

正文

2025-03-20 07:44

突破性进展:Tiled Flash注意力让线性RNN超越Transformer 查看图片 // @爱可可-爱生活 :本文创新性地提出了 Tiled Flash Linear Attention (TFLA) 算法,通过双层序列并行化和优化的内核设计,显著提升了线性 RNN 在长上下文序列建模中的效率和可扩展性,并结合 mLSTMsig 变体和硬件感知优化,实现了比现有 Flash Attention、Mamba 等内核更快的运行速度,为构建更高效、更强大的长序列模型奠定了基础。






请到「今天看啥」查看全文