专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
黄建同学  ·  Runway 推出全新功能:Expand ... ·  16 小时前  
新智元  ·  美国教授痛心:UC伯克利GPA ... ·  16 小时前  
宝玉xp  ·  转:cloudflare worker ... ·  2 天前  
人工智能学家  ·  transformer的细节到底是怎么样的? ... ·  6 天前  
爱可可-爱生活  ·  本文提出一种新的非对抗性逆强化学习方法SFM ... ·  5 天前  
51好读  ›  专栏  ›  机器学习研究会

【学习】浅析感知机--收敛性证明与对偶形式以及python代码讲解

机器学习研究会  · 公众号  · AI  · 2017-03-21 19:07

正文



点击上方“机器学习研究会”可以订阅哦
摘要
 

转自:自然语言处理与机器学习

继上篇《浅析感知机(二)--学习算法及python代码剖析》 - 知乎专栏感知机学习算法以及python实现讲完之后,其实感知机的知识大部分已经讲完,这篇文章可以收尾一下,讲解一下感知机的对偶形式,以及证明一下为什么在迭代有限次的时候可以收敛等知识。



下文目录如下:

1.感知机学习算法的收敛性证明

2.感知机学习算法的对偶形式

3.为什么引出引出对偶形式

4.对偶形式python代码讲解

5.感知机内容的总结



推荐阅读方式:结合前面讲过的浅析感知机(一)--模型与学习策略 - 知乎专栏(前面公众号推送)

《浅析感知机(二)--学习算法及python代码剖析》 - 知乎专栏

(前面公众号推送)

以及李航博士的《统计学习方法》一起阅读,效果较好!



一:感知机学习算法的收敛性


我们需要证明经过有限次迭代可以得到一个将训练数据集完全正确划分的分离超平面及感知机模型。(证明了,我们心里才有底,否则都不知道是否能够保证收敛)

开始:

我们会有以下定理:

设训练数据集T={(x1,y1),(x2,y2),...,(xn,yn)}是线性可分的,则下面俩个定理成立:

由上面定理可以得到,直白来说,如果是一个线性可分的数据集,我是可以在有限次k更新,得到一个将数据集完美分割好的超平面(感知机模型)。下面给出证明:(前方数学证明预警,这里默认收敛性成立也是可以的,不影响应用)


定理一证明如下:


定理二证明如下:


友情提示,可能不是太清楚,但是只要仔细跟着去看,一定能够看懂。把收敛性的证明该注意的地方全部写到了。(完全按李航博士书籍顺序讲解)


那么我们可以得到结论,误分类的次数k是有上界的,当训练数据集线性可分的时候,感知机学习算法原始迭代是收敛的!(证明了算法是对的,可行的)


原文链接:

http://mp.weixin.qq.com/s/JaMdOQ4kQVgRmx9SJ2IFbw

“完整内容”请点击【阅读原文】
↓↓↓