京公网安备 11010802034615号
经营许可证编号:京B2-20210330
SPSS回归分析:自动线性模型
一、自动线性模型(分析-回归-自动线性建模)
1、 目标(分析-回归-自动线性建模-构建选项)
2、基本(分析-回归-自动线性建模-构建选项)
自动准备数据。该选项允许在内部转换目标和预测变量,以使模型的预测能力最大化;将保存模型的任何转换并应用到新数据用于评分。转换字段的原始版本将从模型中排除。默认情况下,执行以下自动数据准备。◎日期与时间处理。每个日期预测变量被转换成新的连续预测变量,其中包含自参考日期(1970-01-01)以来经过的时间。每个时间预测变量被转换成新的连续预测变量,其中包含自参考时间(00:00:00)以来经过的时间。◎调整测量级别。具有少于5个不同值的连续预测变量将被重新设计成有序预测变量。具有多于10个不同值的有序预测变量将被重新设计成连续预测变量。◎离群值处理。如果连续预测变量的值位于截断值(平均值的3个标准差)之外,则将其设为截断值。◎缺失值处理。名义预测变量的缺失值被替换为训练分区的众数。有序预测变量的缺失值被替换为训练分区的中位数。连续预测变量的缺失值被替换为训练分区的平均值。◎受监督的合并。这将减少与目标关联的需处理的字段数,得到更简约的模型。通过输入与目标间的关系可以确定类似的类别。无显著差异(即p值大于0.1)的类别则被合并。如果所有类别合并为一个类别,则字段的原始和派生版本将从模型中排除,因为它们没有作为预测变量的值。
3、模型选择(分析-回归-自动线性建模-构建选项)
1)模型选择方法。选择一种模型选择方法(下面将详细介绍)或无,后者简单地输入所有可用预测变量作为主效应模型项。默认使用前向逐步。
2)前向逐步选择。在开始时模型中没有任何效应,然后在每个步骤中添加和删除效应,直到根据逐步选择标准不能再添加或删除效应为止。
3)纳入/移除标准。此为用于决定是将某个效应添加到还是剔除出模型的统计量。◎信息准则(AICC)基于模型中给定训练集合的似然估计,并可调整以惩罚过度复杂模型。◎F统计量基于有关模型错误改进情况的某个统计量检验。◎调整R方基于训练集合的拟合度,并可调整以惩罚过度复杂模型。◎防止过度拟合准则(ASE)基于防止过度拟合集的拟合度(平均方差,或ASE)。防止过度拟合集是不用于训练模型且大约为原始数据集30%的随机子样本。
4)最佳子集选择。这将检查“所有可能的”模型,或至少检查可能模型的较大子集(大于“前向逐步”方法),以选择满足相应标准的最佳子集。◎信息准则(AICC)基于模型中给定训练集合的似然估计,并可调整以惩罚过度复杂模型。◎调整R方基于训练集合的拟合度,并可调整以惩罚过度复杂模型。◎防止过度拟合准则(ASE)基于防止过度拟合集的拟合度(平均方差,或ASE)。防止过度拟合集是不用于训练模型且大约为原始数据集30%的随机子样本。
二、结果说明(运行后的结果解释)
1、模型概要:模型及其拟合的快照概览摘要
2、自动数据准备:此视图显示在自动数据准备(ADP)步骤中排除了哪些字段,以及转换字段的派生方式等信息。对于每个转换或排除字段,在此表中列出了字段名、在分析中的角色,以及ADP步骤所采取的操作。这些字段按其名称的字母升序排列。对每个字段可能执行的操作包括:◎导出持续时间:月份以月为单位,计算从包含日期的字段值到当前系统日期所经过的时间。◎导出持续时间:小时以小时为单位,计算从包含时间的字段值到当前系统时间所经过的时间。◎将测量级别从连续改为有序:将不到5个唯一值的连续字段重新设计为有序字段。◎将测量级别从有序改为连续:将超过10个唯一值的有序字段重新设计为连续字段。◎删除离群值:如果连续预测变量的值位于截断值(平均值的3个标准差)之外,则将其设为截断值。◎替换缺失值:分别使用众数、中位数和平均值替换名义字段、有序字段和连续字段的缺失值。◎合并类别以最大化与目标的关联:根据输入与目标间的关系确定“类似”的预测变量类别。无显著差异(即p值大于0.05)的类别则被合并。◎排除常量预测变量/在离群值处理之后/在合并类别之后:删除具有单个值的预测变量,可能在执行其他ADP操作之后。
3、预测变量重要性:通常,您需要将建模工作专注于最重要的预测变量字段,并考虑删除或忽略那些最不重要的预测变量字段。预测变量重要性图表可以在模型估计中指示每个预测变量的相对重要性,从而帮助您实现这一点。由于它们是相对值,因此显示的所有预测变量的值总和为1.0。预测变量重要性与模型精度无关。它只与每个预测变量在预测中的重要性有关,而不涉及预测是否精确。
4、由观测预测:这将显示一个分级散点图,其中预测值位于垂直轴上,而观测值位于水平轴上。理想情况下,该点应在45度线上;您可以从该视图上判断出任何被模型预测为较差的纪录。
5、残差:有多种不同的显示样式,可以从样式下拉列表中访问这些样式。◎直方图。此为学生化残差的分级直方图,并带有正态分布交叠。线性模型假设残差具有正态分布,因此理想情况下直方图应相当接近平滑线。◎P-P图。此为分级概率-概率(P-P)图,将学生化残差与正态分布进行对比。如果绘制点的坡度比正态线更平缓,则残差显示出比正态分布更显著的变异性;如果更陡峭,则残差的变异性低于正态分布。如果绘制点呈S型曲线,则残差为偏斜分布。
6、离群值:此表列出对模型施加过度影响的记录,并显示记录ID(如果在“字段”选项卡上指定)、目标值,以及Cook距离。Cook距离是在特定记录从模型系数的计算中排除的情况下,所有记录的残差变化幅度的测量。较大的Cook距离表示在排除记录后系数会发生显著变化,因此应被视为有一定影响。应仔细检查有影响的记录,以确定是在模型估计中给予较低权重,按照特定可接受阈值截断离群值,还是彻底移除有影响的记录。
7、效应:有多种不同的显示样式,可以从样式下拉列表中访问这些样式。◎图表。在此图表中,将按预测变量重要性递减顺序,从上到下排列显示效应。在图表中,连接线条根据效应的显著性进行加权,粗线条表示较显著的效应(p值较小)。悬停在连接线条上将显示工具提示,以指示效应的p值和重要性。这是默认值。◎表:此为总体模型与单独模型效应的ANOVA表。各个效应将按预测变量重要性递减顺序,从上到下排列显示。注意,在默认情况下,此表处于折叠状态,只显示总体模型结果。要查看单独模型效应的结果,在表中单击校正的模型单元格。
8、系数:此视图显示模型中每个系数的值。注意,由于因子(分类预测变量)在模型内部经过指示符编码,因此包含因子的效应通常具有多个关联系数;每种类别一个关联系数,但对应于冗余(参考)参数的类别除外。有多种不同的显示样式,可以从样式下拉列表中访问这些样式。◎图表。在此图表中,首先显示截距,然后按预测变量重要性递减顺序,从上到下排列显示效应。在包含因子的效应中,系数按照数据值的升序进行排列。在图表中,连接线条根据系数的显著性(参见图表键)而具有不同颜色,粗线条表示较显著的系数(p值较小)。悬停在连接线条上将显示工具提示,以指示与参数关联的效应的系数值、p值和重要性。这是默认样式。◎表:这将显示单独模型系数的值、显著性检验,以及置信区间。在截距后面,各个效应将按预测变量重要性递减顺序,从上到下排列显示。在包含因子的效应中,系数按照数据值的升序进行排列。注意,在默认情况下,此表处于折叠状态,只显示每个模型参数的系数、显著性和重要性。要查看标准误、t统计量和置信区间,在表中单击系数单元格。悬停在表中的模型参数名称上,将显示工具提示,以指示参数名称、与参数关联的效应以及与模型参数关联的值标签(对于分类预测变量)。当自动数据准备合并分类预测变量的相似类别时,这尤其适合用于查看新创建的类别。
9、估计平均值:只为显著的预测变量显示这些图表。在图表中,目标的模型估计值位于垂直轴上,预测变量的每个值位于水平轴上,所有其他预测变量保持恒定。它提供了有关每个预测变量系数在目标上的效应的直观表示,非常有用。
10、模型构建汇总:◎前向逐步。如果选择算法为前向逐步,此表将显示逐步选择算法中的最近10步。对于其中每个步骤,显示在此步骤上选择标准的值与模型中的效应。这允许您了解每个步骤对模型的贡献大小。每列允许您对行进行排序,因此可以方便地看到在给定步骤上模型中有哪些效应。◎最佳子集。如果选择算法为最佳子集,此表将显示前10个模型。对于每个模型,显示选择标准的值与模型中的效应。您可以从中了解这些最佳模型的稳定性;如果它们倾向于具有存在少量差异的相似效应,那么您可以充分确信它们的确是“最佳”模型;如果它们倾向于具有迥异的效应,那么某些效应可能太相似,需要进行合并(或删除一些)。每列允许您对行进行排序,因此可以方便地看到在给定步骤上模型中有哪些效应。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27