专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
数据派THU  ·  高阶Transformer可在多模态时间序列 ... ·  昨天  
大数据分析和人工智能  ·  “性成瘾”是什么情况?患者坦言:比酒瘾、烟瘾 ... ·  3 天前  
数据派THU  ·  PyTorch ... ·  4 天前  
51好读  ›  专栏  ›  数据派THU

【博士论文】理解特征学习中的训练与适应:从两层网络到基础模型

数据派THU  · 公众号  · 大数据  · 2025-01-25 17:00

正文

来源:专知

本文约1000字,建议阅读5分钟

本论文推进了我们对神经网络中特征学习的理解,并提供了改进基础模型性能的实用方法,为开发更高效和有效的机器学习系统奠定了基础。


深度神经网络在人工智能的各个领域取得了显著的成功。
它们成功的关键因素之一是能够从数据中学习有效的特征表示,这使得它们与传统机器学习方法有所区别。本论文探讨了特征学习在神经网络训练过程中如何出现,并展示了它在基础模型适应下游应用中的关键作用。

首先,我们从理论上阐述了特征学习在神经网络中的出现。我们证明了神经网络在训练的早期阶段可以高效地学习与类别相关的模式,且只需使用最小的参数,从而避免了影响传统方法的维度灾难。我们的分析表明,这种能力源于网络利用输入数据固有结构的能力。我们开发了一个统一的分析框架,适用于通过梯度下降训练的两层网络,表征了特征学习如何超越核方法发生。我们将研究扩展到 Transformer 架构,分析了单层 Transformer 中的傅里叶特征,并揭示了模型规模与上下文学习行为之间的关系。我们的发现表明,较大的模型覆盖更多的隐藏特征,而较小的模型则强调重要特征,导致不同的上下文学习行为。

在这些理论洞察的基础上,我们开发了基础模型的实际应用。我们引入了核范数正则化方法,以提高领域泛化能力,并在多个任务中展示了持续的性能提升。我们通过一种新的正则化方法解决了对比学习中的普适性与标签效率之间的权衡问题。此外,我们提出了循环 Transformer,用于在上下文学习中实现多步梯度下降,并开发了 GemFilter 算法,利用早期层的注意力特征加速大语言模型的推理。

本论文推进了我们对神经网络中特征学习的理解,并提供了改进基础模型性能的实用方法,为开发更高效和有效的机器学习系统奠定了基础。

https://pages.cs.wisc.edu/~zhmeishi/Thesis_Zhenmei_Shi.pdf


关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU