京公网安备 11010802034615号
经营许可证编号:京B2-20210330
如何衡量多元线性回归模型优劣
最近再做一些多元回归分析方面的分析,但对于得出的回归模型的好坏不知道如何才判断,于是查找了一下相关的教材书籍,找到了张文彤老师写的《SPSS统计分析高级教程》这本书,里面对于回归模型的优劣评价给出来了几点看法,我在此做了摘录分享一下。
当供建立回归模型的自变量有p 个时,仅考虑各因素的主效应,可以建立2^P 个模型(包括仅含常数项的模型)。如果来衡量这些模型的好坏?常用有以下几种标准:
1.复相关系数R
复相关系数(Multiple Correlation Coefficient) 又称多元相关系数,表示模型中所有自变量xi间与反应变量y之间线性回归关系的密切程度大小。实际上它是Yi 与其估计值的简单线性相关系数,即Pearson 相关系数。但其取值范围为(0 ,1),没有负值。R 值越大,说明线性回归关系越密切。但R值直大至多少才算足够好?不同学科的研究其判断标准也不一样。如社会科学研究学者可能认为R >0.4 己经足够好了(想想对股价的预测吧) ,而医学研究学者认为R =0.8 仍嫌偏小,这可能是因为社会科学研究中存在较多的对反应变量确有影响却无法进行测量的变量,当然也就无法对其进行统计分析。此外,用复相关系数评价多元线性回归模型优劣时存在不足,即使向模型中增加的变量没有统计学意义, R 值仍会增大。
2. 决定系数R2
模型的决定系数(Determinate Coefficient) 等于复相关系数的平方。与简单线性回归中的决定系数相类似,它表示反应变量y 的总变异中可由回归模型中自变量解释的部分所占的比例,是衡量所建立模型效果好坏的指标之一。显然, R2 越大越好,但是也存在与复相关系数一样的不足。决定系数的计算公式如下:
3. 校正的决定系数R_adj^2
由于用R2评价拟合模型的好坏具有一定的局限性,即使向模型中增加的变量没有统计学意义, R2值仍会增大。因此需对其进行校正,从而形成了校正的决定系数(Adjusted R Square) 。 校正的决定系数总小于决定系数。校正的决定系数公式如下:
与R2不同的是,当模型中增加的变量没有统计学意义时,校正决定系数会减小,因此校正R2 是衡量所建模型好坏的重要指标之一,校正R2 越大,模型拟合得越好。但当p/n 很小时,如小于0.05 时,校正作用趋于消失。
实际应用中,R2、R_adj^2值的大小还与研究中实际观测到的自变量取值范围有关,一种可能的情况是,某个实际观测的自变量取值范围很窄,但此时所建模型的R2 很大,但这并不代表模型在外推应用时的效果肯定会很好。此外,有时虽然校正决定系数(或决定系数)很大,但误差均方仍很大,这会导致估计的?可信区间很宽,从而失去实际应用价值。
4. 剩余标准差
剩余标准差(Std. Error Of The Estimate) ,等于误差均方MSE 的算术平方根,就是残差之标准差,其大小反应了用建立的模型预测因变量时的精度。剩余标准差越小,说明建立的模型效果越好。与校正决定系数相类似地,当模型中增加无统计学意义的自变量时,剩余标准差反而会增大。此外,剩余标准差还在因变量估值的可信区间估计、自变量的选择等很多方面有着重要作用。
上面介绍的4项可以在SPSS软件上直接输出,除此之外还有一些常用的衡量多元回归模型优劣的标准在这里点一下,有兴趣的读者可参考相关参考书。
5、赤池信息准则
赤池信息准则也被称为AIC 准则(Akaike’s Information Criterion) ,由日本学者赤池于1973年提出,除应用于一般线性模型、广义线性模型的变量筛选外,还被应用于时间序列分析中自回归阶数的确定。AIC 由两部分组成,一部分反映模型的拟合精度,一部分反映了模型中参数的个数,即模型的繁简程度。其计算公式为:
n 为样本含量,与前面走义不同的是,这里的p 为模型中参数个数(包括常数项) ,L 为模型的最大似然函数。一昧地增加模型中自变量的个数虽然能使前半部分减小,而后一部分却不断增大,当模型中纳入无统计学意义的自变量时,前半部分减小的幅度小于后一部分增大的幅度,亏本的生意当然没人去做。AIC 值越小,说明拟合的模型既精度高又简洁。
应用不同的方法拟合的回归模型其AIC 值是不一样的,因此,在应用AIC 准则对不同的模型进行比较时,不同拟合方法得到的模型不能进行比较,AIC 准则只能用于比较同一种方法拟合得到的回归模型。
6、C_p 统计量
Cp 统计量由C. L. Mallows 于1964 年提出。
MSE_p 指模型中含有p 个参数(包括常数项)时的误差均方, MSE_p 为所有自变量均引入模型时的误差均方。用Cp 统计量选择模型的标准是选择Cp 最接近p 的那个模型。
7、其他标准
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02