京公网安备 11010802034615号
经营许可证编号:京B2-20210330
用R建立岭回归和lasso回归
1 分别使用岭回归和Lasso解决薛毅书第279页例6.10的回归问题
例6.10的问题如下:
输入例题中的数据,生成数据集,并做简单线性回归,查看效果 cement <- data.frame(X1 = c(7, 1, 11, 11, 7, 11, 3, 1, 2, 21, 1, 11, 10), X2 = c(26, 29, 56, 31, 52, 55, 71, 31, 54, 47, 40, 66, 68), X3 = c(6, 15, 8, 8, 6, 9, 17, 22, 18, 4, 23, 9, 8), X4 = c(60, 52, 20, 47, 33, 22, 6, 44, 22, 26, 34, 12, 12), Y = c(78.5, 74.3, 104.3, 87.6, 95.9, 109.2, 102.7, 72.5, 93.1, 115.9, 83.8, 113.3, 109.4)) cement ## X1 X2 X3 X4 Y ## 1 7 26 6 60 78.5 ## 2 1 29 15 52 74.3 ## 3 11 56 8 20 104.3 ## 4 11 31 8 47 87.6 ## 5 7 52 6 33 95.9 ## 6 11 55 9 22 109.2 ## 7 3 71 17 6 102.7 ## 8 1 31 22 44 72.5 ## 9 2 54 18 22 93.1 ## 10 21 47 4 26 115.9 ## 11 1 40 23 34 83.8 ## 12 11 66 9 12 113.3 ## 13 10 68 8 12 109.4 lm.sol <- lm(Y ~ ., data = cement) summary(lm.sol) ## ## Call: ## lm(formula = Y ~ ., data = cement) ## ## Residuals: ## Min 1Q Median 3Q Max ## -3.175 -1.671 0.251 1.378 3.925 ## ## Coefficients: ## Estimate Std. Error t value Pr(>|t|) ## (Intercept) 62.405 70.071 0.89 0.399 ## X1 1.551 0.745 2.08 0.071 . ## X2 0.510 0.724 0.70 0.501 ## X3 0.102 0.755 0.14 0.896 ## X4 -0.144 0.709 -0.20 0.844 ## --- ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 ## ## Residual standard error: 2.45 on 8 degrees of freedom ## Multiple R-squared: 0.982, Adjusted R-squared: 0.974 ## F-statistic: 111 on 4 and 8 DF, p-value: 4.76e-07 # 从结果看,截距和自变量的相关系数均不显著。 # 利用car包中的vif()函数查看各自变量间的共线情况 library(car) vif(lm.sol) ## X1 X2 X3 X4 ## 38.50 254.42 46.87 282.51 # 从结果看,各自变量的VIF值都超过10,存在多重共线性,其中,X2与X4的VIF值均超过200. plot(X2 ~ X4, col = "red", data = cement)
接下来,利用MASS包中的函数lm.ridge()来实现岭回归。下面的计算试了151个lambda值,最后选取了使得广义交叉验证GCV最小的那个。 library(MASS) ## ## Attaching package: 'MASS' ## ## The following object is masked _by_ '.GlobalEnv': ## ## cement ridge.sol <- lm.ridge(Y ~ ., lambda = seq(0, 150, length = 151), data = cement, model = TRUE) names(ridge.sol) # 变量名字 ## [1] "coef" "scales" "Inter" "lambda" "ym" "xm" "GCV" "kHKB" ## [9] "kLW" ridge.sol$lambda[which.min(ridge.sol$GCV)] ##找到GCV最小时的lambdaGCV ## [1] 1 ridge.sol$coef[which.min(ridge.sol$GCV)] ##找到GCV最小时对应的系数 ## [1] 7.627 par(mfrow = c(1, 2)) # 画出图形,并作出lambdaGCV取最小值时的那条竖直线 matplot(ridge.sol$lambda, t(ridge.sol$coef), xlab = expression(lamdba), ylab = "Cofficients", type = "l", lty = 1:20) abline(v = ridge.sol$lambda[which.min(ridge.sol$GCV)]) # 下面的语句绘出lambda同GCV之间关系的图形 plot(ridge.sol$lambda, ridge.sol$GCV, type = "l", xlab = expression(lambda), ylab = expression(beta)) abline(v = ridge.sol$lambda[which.min(ridge.sol$GCV)])
par(mfrow = c(1, 1)) # 从上图看,lambda的选择并不是那么重要,只要不离lambda=0太近就没有多大差别。 # 下面利用ridge包中的linearRidge()函数进行自动选择岭回归参数 library(ridge) mod <- linearRidge(Y ~ ., data = cement) summary(mod) ## ## Call: ## linearRidge(formula = Y ~ ., data = cement) ## ## ## Coefficients: ## Estimate Scaled estimate Std. Error (scaled) t value (scaled) ## (Intercept) 83.704 NA NA NA ## X1 1.292 26.332 3.672 7.17 ## X2 0.298 16.046 3.988 4.02 ## X3 -0.148 -3.279 3.598 0.91 ## X4 -0.351 -20.329 3.996 5.09 ## Pr(>|t|) ## (Intercept) NA ## X1 7.5e-13 *** ## X2 5.7e-05 *** ## X3 0.36 ## X4 3.6e-07 *** ## --- ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 ## ## Ridge parameter: 0.01473, chosen automatically, computed using 2 PCs ## ## Degrees of freedom: model 3.01 , variance 2.84 , residual 3.18 # 从模型运行结果看,测岭回归参数值为0.0147,各自变量的系数显著想明显提高(除了X3仍不显著) 最后,利用Lasso回归解决共线性问题 library(lars) ## Loaded lars 1.2 x = as.matrix(cement[, 1:4]) y = as.matrix(cement[, 5]) (laa = lars(x, y, type = "lar")) #lars函数值用于矩阵型数据 ## ## Call: ## lars(x = x, y = y, type = "lar") ## R-squared: 0.982 ## Sequence of LAR moves: ## X4 X1 X2 X3 ## Var 4 1 2 3 ## Step 1 2 3 4 # 由此可见,LASSO的变量选择依次是X4,X1,X2,X3 plot(laa) #绘出图
summary(laa) #给出Cp值 ## LARS/LAR ## Call: lars(x = x, y = y, type = "lar") ## Df Rss Cp ## 0 1 2716 442.92 ## 1 2 2219 361.95 ## 2 3 1918 313.50 ## 3 4 48 3.02 ## 4 5 48 5.00 # 根据课上对Cp含义的解释(衡量多重共线性,其值越小越好),我们取到第3步,使得Cp值最小,也就是选择X4,X1,X2这三个变量。数据分析培训
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16