京公网安备 11010802034615号
经营许可证编号:京B2-20210330
在机器学习中,有成千上万甚至几十万的维度的数据需要处理,这种情况下机器学习的资源消耗是不可接受的,并且很大程度上影响着算法的复杂度,因此对数据降维是必要的。PCA(Principal Component Analysis)是一种常用的数据分析方法,也是最基础的无监督降维算法。通常用于高维数据集的探索与可视化,还可以用于数据压缩,数据预处理等。PCA通过线性变换将原始数据变换为一组各维度线性无关表示,可用于提取数据的主要特征分量及高维数据的降维,而转换后的这组变量便是我们所说的主成分。
均值和零均值化
均值
零均值化
然后将每个维度的数据进行零均值化,所谓零均值化就是让均值为0.即每个数据都减去均值。
进行去均值的原因是如果不去均值的话会容易拟合。在神经网络中,如果特征值x比较大的时候,会导致W*x+b的结果也会很大,这样进行激活函数(如relu)输出时,会导致对应位置数值变化量相对来说太小,进行反向传播时因为要使用这里的梯度进行计算,所以会导致梯度消散问题,导致参数改变量很小,也就会易于拟合,效果不好。
定义
若A为n阶矩阵,若数λ和n维非0列向量X满足AX=λX,那么数λ称为A的特征值,X称为A的对应于特征值λ的特征向量
在PCA降维过程中,本质就是把原有数据投影到新的一个空间,我们也就可以看做是在原有数据基础上求解特征向量和特征值
性质
2.对于同一个特征值对应的特征向量的非零线性组合仍是该特征值对应的特征向量
3.矩阵的特征向量总是相对于矩阵的特征值而言,一个特征值具有特征向量不唯一,一个特征向量不能对应不同特征值
从特征向量和特征值的性质我们就可以发现正好符合PCA降维过程中取方差较大和线性不相关的前k维数据作为降维后数据的目的
方差
方差是是用来表示数据的离散程度的,方差越大,离散程度越大,也就是数据波动就越大。
方差的计算:前面已经说了,需要先对每个维度的数据做零均值化,那么方差就是去均值后的平方和的均值
PCA中方差的意义:PCA的本质就是找一些投影方向,使得数据在这些投影方向上的方差最大,而且这些投影方向是相互正交的(即:相关性几乎为0)。这其实就是找新的正交基的过程,计算原始数据在这些正交基上投影的方差,方差越大,就说明在对应正交基上包含了更多的信息量,对数据特征影响更大,我们暂且把这些信息量可以记为特征值。原始数据协方差矩阵的特征值越大,对应的方差越大,在对应的特征向量上投影的信息量就越大。反之,如果特征值较小,则说明数据在这些特征向量上投影的信息量很小,可以将小特征值对应方向的数据删除,从而达到了降维的目的。
协方差
协方差可以计算不同变量之间的相关性:
如果cov(x,y)=-1.变量之间完全负相关
如果cov(x,y)=1.变量之间完全正相关
如果cov(x,y)=0.变量之间完全不相关
而当x和y相等时,协方差的值就等于方差,所以也可以看作方差是协方差的一种特殊情况
在PCA的过程中我们是对原始数据做过零均值化处理的,故,协方差可以变为:
那么每个维度之间的相关性计算方式为:
协方差矩阵
协方差只能表示两个维度变量之间的相互关系,如果有多个维度随机变量,就需要使用协方差矩阵,我们假设现在又三个维度随机变量x,y,z,那么对应的协方差矩阵则为:
矩阵对角化定义
对角矩阵(diagonal matrix)是一个主对角线之外的元素皆为0的矩阵。对角线上的元素可以为0或其他值
如果存在一个可逆矩阵 P 使得 P-1AP 是对角矩阵,则矩阵A就被称为可对角化矩阵
如果一个矩阵与一个对角矩阵相似,我们就称这个矩阵可经相似变换对角化,简称可对角化;与之对应的线性变换就称为可对角化的线性变换
协方差矩阵对角化
上文我们已经说明了协方差矩阵是一个实对称矩阵,由实对称矩阵和相似矩阵性质我们可以得出协方差矩阵C具有的性质:
和C相似的对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)即:C的特征值就是相似对角矩阵的对角元素
我们假设C的相似对角矩阵为A,那么如果存在一个矩阵P使得P-1CP=A,根据对角矩阵的特点,我们就可以发现矩阵P的每一行就是我们所要找的协方差矩阵的特征向量,而特征值就是对角矩阵的对角元素,现在我们离整个PCA过程还有一步,先把每一个特征向量变成单位向量,然后再按照特征值的大小进行排序,取前K行特征值对应的单位向量组成的矩阵和标准化后数据相乘,就得到了我们需要的降维后的数据矩阵。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27