专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
宝玉xp  ·  ChatGPT 的 Canvas ... ·  11 小时前  
爱可可-爱生活  ·  《爱可可微博热门分享(2.6)》 ... ·  19 小时前  
宝玉xp  ·  Google 的 Gemini 2.0 ... ·  昨天  
量子位  ·  热搜第一!DeepSeek百万年薪招AI人才 ... ·  2 天前  
量子位  ·  DeepSeek华为火线联手!硅基流动首发即 ... ·  5 天前  
51好读  ›  专栏  ›  机器学习研究会

干货|通俗易懂讲解Deep Learning 最优化方法之AdaGrad

机器学习研究会  · 公众号  · AI  · 2017-10-09 22:28

正文

1

总括


首先我们来看一下AdaGrad算法


我们可以看出该优化算法与普通的sgd算法差别就在于 标黄 的哪部分,采取了累积平方梯度。


简单来讲,设置全局学习率之后,每次通过,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同



2

作用




那么它起到的作用是什么呢?


起到的效果是在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习下降的幅度较小),并且能够使得陡峭的方向变得平缓,从而加快训练速度。


下面通过例子讲解一下:

假设我们现在采用的优化算法是最普通的梯度下降法mini-batch。它的移动方向如下面蓝色所示:







请到「今天看啥」查看全文