京公网安备 11010802034615号
经营许可证编号:京B2-20210330
SPSS统计分析案例:多项logistic回归分析
在实际应用中,可能还会碰到因变量是多个分类的情况,并且不包含排序信息。比如视力分为轻度、中度、重度三个水平,此时如果想考察与视力评价有关联的指标,常用的二项logistic回归已经无法胜任。
幸好,SPSS软件为我们提供了多项logistic回归。
logistic回归对数据的要求
因变量:分类变量,要求是(含)三个以上分类水平;
自变量:可以是分类变量或连续变量,建议是分类变量;
协变量:必须是分类变量。
概念什么的,先不说,即使说,小兵我也说不清楚,看了案例自然就了解了。用SPSS学统计的好处就是这,辣眼睛的统计原理可以通过案例实践来逐步理解掌握。
案例数据
该假设数据文件涉及一份880人参于的关于早餐喜好的民意调查,该调查记录了参与者的年龄、性别、婚姻状况以及生活方式是否积极,每个个案代表一个单独的响应者。
调查机构想搞清楚是什么影响着受访人每天吃什么早餐。因变量“早餐选择”包括(1=早餐摊点、2=燕麦类、3=谷物类),自变量暂定年龄、婚姻状况以及生活态度。
分步骤说明
菜单栏中依次选择【分析】【回归】【多项logistic】,打开主面板。
因变量、自变量分别按照箭头指示移入对应的变量框内,然后最为重要的是,点击【参考类别】按钮,默认勾选【最后一个类别】。
什么意思呢?大意是指以因变量和自变量的最后一个分类水平为参照,用其他分类依次与之对比,考察不同水平间的倾向。
主面板中,点击【模型】按钮,打开【多项logistic回归:模型】对话框,勾选【主效应】,本例主要考察自变量年龄、性别、婚姻状况的主效应,暂不考察它们之间的交互作用,然后点击【继续】。
主面板中,点击【统计】按钮,设置模型的统计量。主要【伪R方】【模型拟合信息】【分类表】【拟合优度】这几项必选,其他可以默认不勾选。这些参数主要用于说明建模的质量。
主面板中,点击【保存】按钮,勾选【估算响应概率】,我们要求SPSS软件帮我们估算每个个案三类早餐的概率。
其余的参数主要和逐步回归有关系,本例采用主效应模型,人为指定进入模型的自变量,在其他研究中,可以根据情况选择逐步回归。
下主面板底部点击【确定】按钮,软件开始执行此处建模。
多项logistic回归结果解读
![]()
个案处理摘要表,列出因变量和自变量的分类水平及对应的个案百分比。建议在此表主要读取变量分类水平的顺序,比如自变量“年龄段”,第一个分类是“低于31岁”,第二个分类是“31-45”,第三个分类是“45-60”,第四个分类是“60岁以上”,尤其是看清楚最后一个分类,因为我们前面参数设置时要求是以最后一个分类最为对比参照组的。谁和谁对比,一定要搞清楚。
模型拟合信息表,读取最后一列,显著性值小于0.05,说明模型有统计意义,模型通过检验。
拟合优度表,原假设模型能很好地拟合原始数据,最后一列皮尔逊卡方显著性值0.952,概率较大,说明原假设成立,模型对原始数据的拟合效果良好。
伪R方表,依次列出的3个伪R方值(类似于决定系数)均偏低,最高0.4,说明模型对原始变量变异的解释程度一般,还有一部分信息无法解释,结果不算好。
模型似然比检验表,我们能看到最终进入模型的效应包括截距、年龄、婚姻状况、生活态度,而且最后一列显著性值表明,三个自变量(影响因素)对模型构成均有显著贡献,研究它们是有意义的。
参数估计表,列出自变量不同分类水平对早餐选择的影响检验,是多项logistic回归非常重要的结果。
第二列B值,即各自变量不同分类水平在模型中的系数,正负符号表明它们与早餐选择是正比还是反比关系。第六列是瓦尔德检验显著性值,此值小于0.05说明对应自变量的系数具有统计意义,对因变量不同分类水平的变化有显著影响。
比如,早餐摊点和谷物类早餐相比,31-45岁的年轻人更偏向于选择在早餐摊点吃早餐,这种可能性是60岁以上人的3.7倍;燕麦类和谷物类早餐相比,结婚与否对早餐的选择没有差别。
除此之外,我们前面还要求软件保存了每个个案早餐选择的概率,返回数据编辑器窗口,具体来看结果。
原始数据最右侧新增3个变量,依次为EST1_1、EST2_1、EST3_1,分别对应因变量“早餐选择”的三个分类水平(早餐摊、燕麦类、谷物类)的响应概率。比如第一个个案,他选择谷物类早餐的概率为0.55,在三种选择中数值最大,因此,模型会判定他选择谷物类早餐,这和原始记录的真值一致,说明模型判断准确。
当然,SPSS软件也输出了模型预测分类表,如下所示。
模型在预测燕麦类早餐选择倾向上准确率最高,达到77%,其他两个早餐选择的预测略低,模型总体预测准确率为57.4%,表现一般。前面伪R方数据显示,模型对总体变异的解释能力不足,这和总体预测准确率结论也一致。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27