专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
黄建同学  ·  未来就这样玩纸牌游戏了↓ 看着有点Cool ... ·  3 天前  
歸藏的AI工具箱  ·  上周AI重要内容:搜索、具身智能、游戏实时生 ... ·  3 天前  
歸藏的AI工具箱  ·  上周AI重要内容:搜索、具身智能、游戏实时生 ... ·  3 天前  
爱可可-爱生活  ·  恭喜@炼丹师oo ... ·  1 周前  
黄建同学  ·  #2024仅剩2个月#今年机器人的发展可谓突 ... ·  1 周前  
51好读  ›  专栏  ›  机器学习研究会

【学习】为什么说随机最速下降法(SGD)是一个很好的方法?

机器学习研究会  · 公众号  · AI  · 2017-09-08 23:27

正文



点击上方“机器学习研究会”可以订阅


摘要
 

转自:袁洋

[本文主要介绍SGD算法,和两篇分析它逃离鞍点的论文: 我与鬲融,金驰,黄芙蓉写的Escaping From Saddle Points – Online Stochastic Gradient for Tensor Decomposition, 以及由金驰,鬲融等人写的最新力作:How to Escape Saddle Points Efficiently]


假如我们要优化一个函数最小值, 常用的方法叫做Gradient Descent (GD), 也就是最速下降法. 说起来很简单, 就是每次沿着当前位置的导数方向走一小步, 走啊走啊就能够走到一个好地方了.


如上图, 就像你下山一样, 每一步你都挑最陡的路走, 如果最后你没摔死的话, 一般你很快就能够走到山脚. 用数学表示一下, 就是


原文链接:

https://zhuanlan.zhihu.com/p/27609238

“完整内容”请点击【阅读原文】
↓↓↓