专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
CDA数据分析师  ·  【实战】利用BI工具搭建贷款经营看板 ·  1 周前  
数据派THU  ·  面向因果效应估计的耦合生成对抗模型 ·  1 周前  
数据派THU  ·  一文汇总:时序预测中的多频率建模方法 ·  5 天前  
51好读  ›  专栏  ›  数据派THU

【NeurIPS2024】PACE:将参数高效微调中的泛化与一致性正则化结合起来

数据派THU  · 公众号  · 大数据  · 2024-10-05 17:00

正文

来源:专知

本文为论文介绍,建议阅读5分钟

我们提出了PACE,将参数高效微调的泛化与一致性正则化相结合。


参数高效微调(PEFT)有效地将预训练的视觉变换器适应于下游任务。然而,任务性能的优化往往以微调模型的泛化能力为代价。为了解决这一问题,我们从理论上将训练过程中较小的权重梯度范数与较大的数据集联系起来,进而改善模型的泛化能力。受此启发,我们提出降低梯度范数以增强泛化能力,并使微调模型与预训练模型对齐,以保留来自大规模预训练数据的知识。然而,简单的对齐并不能保证梯度减少,反而可能导致梯度爆炸,增加管理梯度的难度。为了解决这些问题,我们提出了PACE,将参数高效微调的泛化与一致性正则化相结合。我们通过乘法噪声扰动适配器学习到的特征,确保微调模型在不同扰动下对同一样本保持一致。理论分析表明,PACE不仅隐式地对梯度进行正则化以增强泛化能力,还隐式地对齐微调和预训练模型以保留知识。实验结果支持我们的理论。PACE在四个视觉适应任务中超越了现有的PEFT方法:VTAB-1k、FGVC、少量学习和领域适应。代码将发布在MaxwellYaoNi/PACE上。



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU