专栏名称: 爱可可-爱生活
知名互联网资讯博主 北邮PRIS模式识别实验室陈老师
目录
相关文章推荐
机器之心  ·  OpenAI首席研究官:DeepSeek独立 ... ·  昨天  
Alisha全球出海日记  ·  《新年出海第一课:2025年,如何用“AI+ ... ·  昨天  
爱可可-爱生活  ·  这篇论文创新性地提出了 ... ·  3 天前  
爱可可-爱生活  ·  《爱可可微博热门分享(1.26)》 ... ·  3 天前  
爱可可-爱生活  ·  《爱可可微博热门分享(1.25)》 ... ·  4 天前  
51好读  ›  专栏  ›  爱可可-爱生活

【[22星]AttentionEngine:一个统一的框架,用于-20250127215715

爱可可-爱生活  · 微博  · AI  · 2025-01-27 21:57

正文

2025-01-27 21:57

【[22星]AttentionEngine:一个统一的框架,用于定制注意力机制,包括Transformer注意力和线性注意力。亮点:1. 只需80行代码即可定义softmax注意力;2. 自动生成高性能的设备代码;3. 支持NVIDIA H100等多款设备】
'AttentionEngine is a unified framework to customize attention, including transformer attention and linear attention. AttentionEngine provides users with pythonic interface to define customized attention flexibly and automatically generate device code with high performance. For example, user can define softmax attention with only 80 lines of code and get the optimized fused kernel automatically.'
GitHub: github.com/microsoft/AttentionEngine
#注意力机制# #高性能计算# #AI框架# #AI创造营#