专栏名称: 待字闺中
深度分析大数据、深度学习、人工智能等技术,切中实际应用场景,为大家授业解惑。间或,也会介绍国内外相关领域有趣的面试题。
目录
相关文章推荐
金错刀  ·  最敢玩命的中国保安,飞进雷军朋友圈! ·  3 天前  
艾锋降级  ·  紧急发布!iOS 18.1.1 和 ... ·  6 天前  
艾锋降级  ·  紧急发布!iOS 18.1.1 和 ... ·  6 天前  
七厘居  ·  2024跨年大妖!下一只翻倍黑马就是它 ·  1 周前  
七厘居  ·  2024跨年大妖!下一只翻倍黑马就是它 ·  1 周前  
51好读  ›  专栏  ›  待字闺中

机器学习入门,及简单中文注解

待字闺中  · 公众号  · 程序员 科技自媒体  · 2016-11-21 00:15

正文

这是Pascal Vincent在2015年深度学习夏季学校讲的机器学习入门。我们给了简单的注解,浅显易懂,值得一读。



AI的两种不同的思路:神经元网络和符号主义。最后是学习和概率模型获胜,从而催生了机器学习。



60年代的AI。



现在的机器学习是跨学科综合体。



机器学习:研究基本原理,开发神奇算法,利用收集的数据生成预测函数,能够应用到新的相似数据上。




机器学习的主要材料是数据!数据表示成很多的同质的样本,最好每个样本表示成一个数字向量。




数据预处理,提取体征,表示成向量,和目标值。



问题空间:样本大小n,特征维度d,目标维度m。



将数据变成一系列样本。一个样本需要保存哪些信息,需要预测什么。



将样本转换成一个输入向量。



将数据集在一个高维空间表示。



举例:nearest neighbor classifier:根据某种距离计算,在训练集中找出最近的邻居,然后预测新的样本和邻居有同样的类别。



机器学习任务(问题类型):监督学习,无监督学习,强化学习。

监督学习:分类问题,回归问题。

无监督学习:概率分布模型,发现数据的内部结构(聚类,降维,表示学习)

强化学习:从与环境的交互决策过程中获取最大化回报。



学习阶段:训练,预测。目标不是记住训练集,而是要能够在新的未来的样本上很好的泛化预测。



举例:一维回归。



监督学习任务示例。




一个机器学习算法一般对应着三个部分:函数家族(模型族),评估质量(损失函数),找到最好的函数(模型)(优化)。



评估一个函数(模型)的质量,寻找最好的函数(模型)。



评估模型的标准。



对某些机器学习任务的标准损失函数。



有的损失函数很难直接去优化,所以需要替代损失函数。



期望风险:对于将来的从不知道的分布来的无限多的样本,我们的预测平均来说将会做的多差。

经验风险:对于有限的样本集,我们的预测平均来说会做的多差。



最小化经验风险。



评估泛化错误。



简单的训练/测试流程。将样本集随机打乱,然后分成两个部分,训练集和测试集。用训练集来选择/优化/发现最好的预测函数(模型),然后用测试集来评估模型的泛化能力。



模型选择,实际上是从函数家族中选择一个特殊函数。



举例:参数化函数家族。比如常数,线性,多项式。



一个学习方法的能力。



有效能力,能力控制的超参数。



常用的分类器和它们的学些参数,超参数。



选择算法和调参来保证泛化,避免欠拟合和过拟合。



举例:二维分类。函数太差,能力有限,欠拟合。



函数太强,能力高,过拟合。



最优的,最好的泛化能力。



泛化错误分解。



方差的影响因素。



最优化和偏差方差的困境。



模型选择指南!!!



举例:模型的超参数选择。



几个问题:

如果选择在训练集上效果最好的超参数会怎么样?我们倾向于选择什么?



模型选择流程总结。



集成算法。

对于Bagging,其驱动的原则是通过独立的建立几种预测器进行预测,然后平均这些预测器的预测结果。在平均意义下,合并后的预测器因为减小了方差,因此其通常优于单个的预测器。

对于Boosting ,基本的预测器被以此建立,并且每一个预测器都尽量去减小合并后的预测器某一项的偏差。其动机是通过合并几个弱模型从而形成一个强有力的集成。



Bagging 减少回归问题的方差。



如何从线性预测器获取非现象预测器。



分层表示。神经元网络。