专栏名称: 智享
智库灯塔旗下微杂志,主要分享强有力的设计作品、产品咨询、动态,是设计师及产品经理的智慧分享平台。设计是信仰,产品是追求,请将您想推送的图私信发给我们。智库灯塔专注于产品经理和UI设计培训。
目录
相关文章推荐
百姓关注  ·  收8000元后,他把同学骗去缅甸!法院判决 ·  昨天  
闹闹每日星运  ·  星历0210:水瓶学习新技能 射手要量力而行 ·  2 天前  
百姓关注  ·  突发8.0级地震,海啸预警发布! ·  3 天前  
51好读  ›  专栏  ›  智享

讲讲PCA主成分分析

智享  · 公众号  ·  · 2021-01-05 16:00

正文

本文作者:小洛同学

本文来源:赵小洛洛洛(luoluo9633)


---BEGIN---


在机器学习的领域中,我们对原始数据进行特征提取,经常会得到高维度的特征向量。在这些多特征的高维空间中,会包含一些冗余和噪声。所以我们希望通过降维的方式来寻找数据内部的特性,提升特征表达能力,降低模型的训练成本。PCA是一种降维的经典算法,属于线性、非监督、全局的降维方法。



01

PCA原理


PCA的原理是线性映射,简单的说就是将高维空间数据投影到低维空间上,然后将数据包含信息量大的主成分保留下来,忽略掉对数据描述不重要的次要信息。而对于正交属性空间中的样本,如何用一个 超平面 对所有样本进行恰当合适的表达呢?若存在这样的超平面,应该具有两种性质:

  • 所有样本点到超平面的距离最近

  • 样本点在这个超平面的投影尽可能分开


以上两种性质便是主成分分析的两种等价的推导,即PCA最小平方误差理论和PCA最大方差理论, 本篇主要为大家介绍最大方差理论。


PCA的降维操作是 选取数据离散程度最大的方向 (方差最大的方向)作为第一主成分,第二主成分选择方差次大的方向,并且与第一个主成分正交。不算重复这个过程直到找到k个主成分。



数据点分布在主成分方向上的离散程度最大,且主成分向量彼此之间正交;



02

PCA算法实现步骤




1、对所有数据特征进行中心化和归一化


对样本进行平移使其重心在原点,并且消除不同特征数值大小的影响,转换为统一量纲:




2、计算样本的协方差矩阵


协方差是对两个随机变量联合分布线性相关程度的一种度量;



3、对协方差矩阵求解特征值和特征向量



注意点:


1、对称矩阵的特征向量相互正交,其点乘为0


2、数据点在特征向量上投影的方差,为对应的特征值,选择特征值大的特征向量,就是选择点投影方差大的方向,即是具有高信息量的主成分;次佳投影方向位于最佳投影方向的正交空间,是第二大特征值对应的特征向量,以此类推;


4、选取k个最大大特征值对应的特征向量,即是k个主成分



U是协方差矩阵所有的特征向量构成的矩阵,对应的特征值满足:λ1>λ2>⋯>λn,同时使其满足在主成分向量上投影的方差和占总方差的99%或者95%以上,即确定了k的选取。



03

降维python实现


1、配置环境,导入相关包



2、读取数据



3、读取特征、标签列,并进行中心化归一化,选取主成分个数,前2个主成分的方差和>95%



4、将降维后特征可视化,横纵坐标代表两个主成分,颜色代表结果标签分类,即可根据主成分进行后续分析、建模




以上PCA主成分分析就讲完了,本文进行了样本点在超平面的投影尽可能分开的推导原理阐述,大家感兴趣的可以研究另一种等价推导,即样本点到超平面的距离最近;



------------ End ------------








请到「今天看啥」查看全文