专栏名称: 自动驾驶之心
自动驾驶开发者社区,关注计算机视觉、多维感知融合、部署落地、定位规控、领域方案等,坚持为领域输出最前沿的技术方向!
目录
相关文章推荐
风动幡动还是心动  ·  纳斯达克指数暴跌​! ·  2 天前  
风动幡动还是心动  ·  纳斯达克指数暴跌​! ·  2 天前  
51好读  ›  专栏  ›  自动驾驶之心

稀疏注意力、视觉语言新突破:本周Hugging Face TOP 10论文速览

自动驾驶之心  · 公众号  ·  · 2025-02-24 07:30

正文

作者 | 书生·浦语等LLM 编辑 | 机智流

点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号

戳我-> 领取 自动驾驶近15个 方向 学习 路线

>>点击进入→ 自动驾驶之心 『自动驾驶』技术交流群
本文只做学术分享,如有侵权,联系删文


各位AI爱好者,本周Hugging Face Daily Papers又带来了一波前沿研究成果!从长上下文建模到多模态视觉语言模型,再到AI研究Agent的新框架,TOP 10论文亮点满满,投票数火爆,值得一读!以下是简要介绍,快来一起看看吧~


1. Native Sparse Attention 🚀(129票)

🔗 https://huggingface.co/papers/2502.11089
🔥 NSA(Native Sparse Attention)来了!针对长上下文建模的高计算成本问题,NSA通过动态层次稀疏策略和硬件优化,实现高效建模。实验证明,它在64k序列上大幅提速,同时性能媲美甚至超全注意力模型。效率与能力双赢!

2. Qwen2.5-VL Technical Report 🔥(128票)

🔗 https://huggingface.co/papers/2502.13923
🚀 Qwen视觉语言系列旗舰升级!Qwen2.5-VL在视觉识别、文档解析和长视频理解上表现亮眼,支持动态分辨率处理,能精准定位对象并提取结构化数据。72B模型直逼GPT-4o,文档理解更是强到飞起!

3. MLGym: AI研究Agent新框架 🚀(121票)

🔗 https://huggingface.co/papers/2502.14499
🔥 Meta MLGym和MLGym-Bench首次为AI研究任务打造Gym环境,涵盖13个开放性任务。测试结果显示,即便是前沿LLM也难生成新颖假设,暴露了AI研究能力的瓶颈。开源框架已就位,等你来挑战!

4. SuperGPQA: 285学科LLM评估 🔥(78票)

🔗 https://huggingface.co/papers/2502.14739
🚀 覆盖285个学科的超大基准SuperGPQA登场!通过Human-LLM协作筛选题目,测试LLM的知识与推理能力。结果表明,即便是DeepSeek-R1也只有61.82%的准确率,AGI还有很长的路要走。

5. SigLIP 2: 多语言视觉编码器 🚀(77票)

🔗 https://huggingface.co/papers/2502.14786
🔥 SigLIP 2在图像-文本任务上全面升级,加入自监督损失和数据筛选技术,支持多分辨率输入。性能提升的同时,还优化了多语言理解和公平性,提供从86M到1B的多种模型选择。







请到「今天看啥」查看全文