梯度下降
Gradient descent
刚接触梯度下降这个概念的时候,是在学习机器学习算法的时候,很多训练算法用的就是梯度下降,然后资料和老师们也说朝着梯度的反方向变动,函数值下降最快,但是究其原因的时候,很多人都表达不清楚。所以我整理出自己的理解,从方向导数这个角度把这个结论证明出来,让我们知其然也知其所以然~
下面我一开始不提梯度的概念,完全根据自己的理解进行下文的梳理,一步一步推出梯度的来历:
导数的几何意义可能很多人都比较熟悉: 当函数定义域和取值都在实数域中的时候,导数可以表示函数曲线上的切线斜率。 除了切线的斜率,导数还表示函数在该点的变化率。
将上面的公式转化为下面图像为:
原文链接:
https://mp.weixin.qq.com/s?__biz=MzA5ODUxOTA5Mg==&mid=2652552010&idx=1&sn=1090a3f34800e8634fecf1233104baac&chksm=8b7e4a11bc09c307c80581b396ffd99c38e042fbf74724a7e74415b356afe0594d18cd69957b&scene=0&pass_ticket=BhiEdpKlj48jcLVnKvPW6Iv1MiLtdgQqY8Tszz1S36Y%3D#rd