
一些常见的特征选择方法
现实中产生的特征维度可能很多,特征质量参差不齐,不仅会增加训练过程的时间,也可能会降低模型质量。因此,提取出最具代表性的一部分特征来参与训练就很重要了。
特征抽取
对于特征之间存在正交关系,数据满足高斯分布或指数分布的数据,作线性变换,使用方差、协方差去噪,生成新的主元,接下来按重要性排序后取少数参与训练,达到减少特征的目的。
这里最重要的思想是把多个特征进行线性变换,使用较少的特征表达原来多个特征的主要特点。
由于现实中取得的数据绝大部分满足高斯分布,所以PCA应用极广。
人脸识别应用
将多幅同一人的人脸图像进行PCA变换,找到代表人脸的主要特征模型。当有新的人脸需要识别时,进行相同变换,并与已存在的人脸特征模型进行匹配。
R应用方法
//PCA方案1:用SVD实现
pca1<-prcomp(USArrests, scale = TRUE)
//PCA方案2:采用线性代数中的实对称均值的对角化实现
pca2<-princomp(USArrests,cor=T)
summary(pc1)
summary的输出为:
Importance of components:
PC1 PC2 PC3 PC4
Standard deviation 1.5749 0.9949 0.59713 0.41645
Proportion of Variance 0.6201 0.2474 0.08914 0.04336
Cumulative Proportion 0.6201 0.8675 0.95664 1.00000
上面三行分别为标准差,方差贡献率,累计方差贡献率。
根据上面的数据,至PC3时,累计方差贡献率已达0.95664,因此只取前三个特征已经足够。
特征选择
特征选择主要有Filter、Wrapper、Embedded等几种不同的思路。这里主要写写Filter。
卡方检验
在有不同特征值的影响下,对两组目标变量作卡方检验,计算x2值,看两组数据是否有统计学上的明显差异。
这里给出R中的代码例子。
1、使用卡方检验判断患者治疗方式对治疗效果的影响
library(vcd)//加载vcd数据包
//准备进行卡检验所需的数据,提取治疗方式与治疗效果
mytable<-xtabs(~Treatment+Improved,data=Arthritis)
//对mytable进行卡方检验
chisq.test(mytable)
以下是输出结果
Pearson's Chi-squared test
data: mytable
X-squared = 13.055, df = 2, p-value = 0.001463
p < 0.01,可以判断患者接受的治疗方式对治疗效果有明显影响。
2、使用卡方检验判断患者的性别对治疗效果的影响
library(vcd)//加载vcd数据包
//准备进行卡检验所需的数据,提取患者性别与治疗效果
mytable<-xtabs(~Improved+Sex,data=Arthritis)
//对mytable进行卡方检验
chisq.test(mytable)
以下是输出结果
Pearson's Chi-squared test
data: mytable
X-squared = 4.8407, df = 2, p-value = 0.08889
p > 0.05,可以判断患者的性别对治疗效果无明显影响。
上面的实验中,p值表示不同列之间的相互独立的概率。
在1中,由于p值很小,所以拒绝了治疗方式与治疗效果之间相互独立的假设。
在2中,由于p值不够小,所以无法拒绝性别与治疗效果之间相互独立的假设。
WOE、IV
预测目标变量所需的信息总量蕴含在所有的特征中,某个特征所蕴含信息量(IV值)越大,则越重要。
IV值的计算以WOE为基础。
详细的概念、原理及公式可以参考这篇文章
数据挖掘模型中的IV和WOE详解:https://www.cda.cn/view/24633.html
接下来看看R中的应用
//安装和加载woe包。
install.packages("woe")
library(woe)
//计算数据集mtcars中,cyl这一列对目标变量am的woe值和iv值。
woe(Data=mtcars,"cyl",FALSE,"am",10,Bad=0,Good=1)
以下是输出结果
BIN BAD GOOD TOTAL BAD% GOOD% TOTAL% WOE IV BAD_SPLIT GOOD_SPLIT
1 4 3 8 11 0.158 0.615 0.344 135.9 0.621 0.273 0.727
2 6 4 3 7 0.211 0.231 0.219 9.1 0.002 0.571 0.429
3 8 12 2 14 0.632 0.154 0.438 -141.2 0.675 0.857 0.143
//计算数据集mtcars中,mpg这一列对目标变量am的woe值和iv值。
woe(Data=mtcars,"mpg",TRUE,"am",10,Bad=0,Good=1)
以下是输出结果
BIN MIN MAX BAD GOOD TOTAL BAD% GOOD% TOTAL% WOE IV BAD_SPLIT GOOD_SPLIT
1 1 10.4 14.3 4 0 4 0.211 0.000 0.125 -Inf Inf 1.00 0.00
2 2 14.7 15.2 3 1 4 0.158 0.077 0.125 -71.9 0.058 0.75 0.25
3 3 15.5 17.3 3 1 4 0.158 0.077 0.125 -71.9 0.058 0.75 0.25
4 4 17.8 19.2 4 0 4 0.211 0.000 0.125 -Inf Inf 1.00 0.00
5 5 19.2 21.0 1 3 4 0.053 0.231 0.125 147.2 0.262 0.25 0.75
6 6 21.4 22.8 2 2 4 0.105 0.154 0.125 38.3 0.019 0.50 0.50
7 7 22.8 27.3 2 2 4 0.105 0.154 0.125 38.3 0.019 0.50 0.50
8 8 30.4 33.9 0 4 4 0.000 0.308 0.125 Inf Inf 0.00 1.00
信息熵与信息增益
信息的熵,表示不确定性。
在一个数据集中,先对目标分类变量进行熵的计算,再对目标分类变量按某一个特征值进行分组后进行一次熵的计算,两次熵值之差就是该特征值的信息增益。特征值的信息增益越大,表示该特征值的重要性越高。
这里有一个前提,即,目标变量是一个分类变量。
这里使用R语言代码作个说明
一个老太太去买菜,市场上可供选择的东西有以下几种:西红柿(1)、白菜(2)、豆腐(3)、咸菜(4)、馒头(5)、西瓜(6)、樱桃(7)、苹果(8)、猪肉(10)、牛肉(11)、羊肉(12)。不给出任何其它信息之前,我们无法判断老太太今天会买什么菜。此时熵值最大,为
install.packages("entropy")
library(entropy)
y<-c(1,2,3,4,5,6,7,8,9,10,11,12)
//使用max likehood方式计算熵值
entropy(y,method = "ML")//输出值为:2.327497
接下来,在给出4条老太太买菜习惯的信息后,我们发现老太太今天只可能会买樱桃或西瓜。
此时不确定性变小,熵值变小,为:
y<-c(6,7)
entropy(y,method = "ML")//输出值为:0.6901857
因此,4条老太太买菜习惯的信息增闪为:2.327497-0.6901857=1.637311
Gini指数
这个指标同信息增益原理类似,哪个特征对Gini指数贡献大,哪个特征重要。
给出R语言实现
不给出任何信息时,Gini指数为:
install.packages("ineq")
library(ineq)
y<-c(1,2,3,4,5,6,7,8,9,10,11,12)
Gini(y)//输出结果为:0.3055556
给出4个买菜习惯信息后,Gini指数为:
y<-c(6,7)
Gini(y)//输出结果为:0.03846154
相关性
数据集中的两个特征之间存在共线性,即较强的线性关系,就存在冗余,在最终训练时只使用其中一个就足够。
这里列出一些衡量相关性的值。
1、协方差与相关系数。
这两个值描述的是两个变量与各自期望值之间的误差是否变动一致,它们之间可以互相转换,一般使用相关系数较多。相关系数范围为[-1,1],其中-1代表完全负相关,1代表完全正相关,0代表完全独立。
这里列出R应用方法
//计算两列数据之间的相关系数
cor(mtcars$cyl,mtcars$disp,method = "pearson")//输出值为:0.9020329,表示两列数据正相关
cor(mtcars$mpg,mtcars$disp,method = "pearson")//输出值为:-0.8475514,表示负相关
//计算两列数据之间的协方差
cov(mtcars$cyl,mtcars$disp,method = "pearson")//输出值为:199.6603
cov(mtcars$mpg,mtcars$disp,method = "pearson")//输出值为:-633.0972
method取值有三种:
pearson:适用于连续变量,如分析血压值和年龄的相关性。
spearman:适用于顺序数据,如分析数学和语言成绩排名相关性。
kendall:适用于有序分类变量,如分析疼痛级别分类和病情严重程序分类。
2、偏相关
当数据集中的特征很多时,两个特征之间的相关性会受到很多其它特征的影响。在排除掉其它特征的影响之后,计算出来的两个特征的相关性系数,叫偏相关系数。
在特征z固定的前提下,分析x、y的相关性,得到的是一阶偏相关系数,在特征z、q固定的前提下,得到的是二阶偏相关系数。
这里给出R应用
library(ggm)
data("marks")//加载marks数据集
var(marks)//计算marks数据集的方差矩阵
//计算固定analysis,statistics时,vectors和algebra的二阶偏相关系数
pcor(c("vectors", "algebra", "analysis", "statistics"), var(marks))//输出结果为:0.388203
pcor(c(2,3,4,5), var(marks))//与上一句代码意义相同
//偏相关系数的显著性检验,入参分别为:偏相关系数,固定变量个数,样本量
pcor.test(0.388203,2,dim(marks)[1])//输出值p=0.0002213427,p<0.01,因此,在固定analysis,statistics时,vectors和algebra两个特征存在明显偏相关性
Lasso
Lasso的基本思想是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归系数,达到特征选择的目的。
这里给出R中的应用例子
data(diabetes)//加载数据集diabetes
//使用lasso进行特征选择
lars(diabetes$x,diabetes$y,type="lasso")
输出结果为:
Call:
lars(x = diabetesx,y=diabetesy)
R-squared: 0.518
Sequence of LASSO moves:
bmi ltg map hdl sex glu tc tch ldl age hdl hdl
Var 3 9 4 7 2 10 5 8 6 1 -7 7
Step 1 2 3 4 5 6 7 8 9 10 11 12
Var行即是lasso给出的特征选择顺序,Setp行即时顺序编号。
以下方法可以得到各特征的多重共线性:
data<-lars(diabetes$x,diabetes$y)
summary(data)
输出结果为:
LARS/LASSO
Call: lars(x = diabetesx,y=diabetesy)
Df Rss Cp
0 1 2621009 453.7263
1 2 2510465 418.0322
2 3 1700369 143.8012
3 4 1527165 86.7411
4 5 1365734 33.6957
5 6 1324118 21.5052
6 7 1308932 18.3270
7 8 1275355 8.8775
8 9 1270233 9.1311
9 10 1269390 10.8435
10 11 1264977 11.3390
11 10 1264765 9.2668
12 11 1263983 11.0000
按data中Step行指定的顺序,依次选取特征,则Cp的值从上往下对应变化,Cp值越小,表示回归模型越精确。
如果我们取前3个特征,则cp值为86.7411。如果取前7个特征,则Cp值为8.8775,达到最小。
因此,计算量允许的范围内,取前7个特征进行训练,得到的回归模型最精确。如果要严格控制计算量,则取前3个特征即可。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13