专栏名称: 机器学习算法与Python实战
长期跟踪关注统计学、数据挖掘、机器学习算法、深度学习、人工智能技术与行业发展动态,分享Python、机器学习等技术文章。回复机器学习有惊喜资料。
目录
相关文章推荐
壹读  ·  中产的保温杯,比iPhone还小了? ·  昨天  
新京报书评周刊  ·  我们为何渴望安稳,却又想要逃离? ·  3 天前  
新京报书评周刊  ·  几乎不识字的她,完成了一部关于自己的人生叙事 ·  5 天前  
十点读书会  ·  疯涨的黄金,受骗的年轻人 ·  2 天前  
51好读  ›  专栏  ›  机器学习算法与Python实战

面试大厂被怼:怎么连Attention都不会?

机器学习算法与Python实战  · 公众号  ·  · 2024-10-08 11:30

正文

现在搞人工智能,真是离不开 注意力机制

发论文,模型里没点魔改Attention都不好意思叫创新。

面试算法岗,简单的让你讲讲几种注意力,或者让你手撕个注意力函数、MQA算法之类的。

所以各位小伙伴,尤其是在校生们,还是要打好Attention的基础。这里也分享一些资料:包括 缩放点积注意力、多头注意力、交叉注意力、空间注意力、通道注意力 等在内的 11种主流注意力机制112个创新研究 ,最新更新到24年9月

这些可以说是目前学术界有关attention最前沿的资料了。并且 每篇论文都有对应的代码 ,可以自己手撕复现,非常方便。


11种主流注意力机制112个创新研究paper+代码 ,想要的扫码领取⬇️


扫码领112个11种主流注意力机制

创新研究paper和代码


缩放点积注意力

  • 5.Sep.2024—LMLT:Low-to-high Multi-Level Vision Transformer for Image Super-Resolution

  • 4.Sep.2024—MobileUNETR:A Lightweight End-To-End Hybrid Vision Transformer For Efficient Medical Image Segmentation

  • 4.Sep.2024—More is More Addition Bias in Large Language Models

  • 4.Sep.2024—LongLLaVA:Scaling Multi-modal LLMs to 1000 Images Efficiently via Hybrid Architecture

......

扫码领112个11种主流注意力机制

创新研究paper和代码


多头注意力

  • 4.Sep.2024—Multi-Head Attention Residual Unfolded Network for Model-Based Pansharpening

  • 30.Aug.2024—From Text to Emotion: Unveiling the Emotion Annotation Capabilities of LLMs

  • 25.Jun.2024—Temporal-Channel Modeling in Multi-head Self-Attention for Synthetic Speech Detection

  • 14.May.2024—Improving Transformers with Dynamically Composable Multi-Head Attention

......

扫码领112个11种主流注意力机制

创新研究paper和代码








请到「今天看啥」查看全文