京公网安备 11010802034615号
经营许可证编号:京B2-20210330
通过数据解释过去
数据的作用主要体现在两方面:解释过去和预测未来。本篇文章介绍如何通过数据解释过去发生的事情。包括过去发生了什么事情?这些事情有什么样的规律?驱动因素是什么?是否有明显的改进或提升?等等。在开始之前我们先来介绍下数据的获取来源以及数据的特点和分类。
数据来源及分类
我们以网站的数据为例,网站的数据来自于服务确日志和网站分析工具。下面是来自网站分析工具Google Analytics的一条日志信息。在这条日志中包含了一些用户及网站的信息。Google通过对这些信息的处理产生数据,并最终生成我们所看到的网站数据报告。
我们将日志进行拆分展现,以便更加清晰的看到日志中所包含的具体信息。可以看到,每一条信息都是以一对参数和值的形式进行记录的。例如,参数t表示这条日志的类型,值pageview表示这是一条PV日志。(Google Analytics中除了PV日志,还包括event日志等其他多种日志类别)说明每条这样的日志都表示一次页面浏览。又如参数dl表示用户当前浏览的页面地址,值表示页面的具体URL。
通过观察日志中的信息可以发现,日志中所包含的信息分为两大类,也就是参数后面的值类型。一类是类别变量,这在Google Aanalytics中参数值类型为text或boolean,例如客户ID,地理位置和屏幕分辨率等。另一类是数值变量,这在Google Analytics中参数值类别为integer或currency,例如事件价值,商品数量,交易收入等。详细信息请参考《Measurement Protocol 参数参考》
类别型变量
数值型变量
在了解了Google Analytics日志中信息的分类后,我们开始分布对每个类别信息的分析方法进行说明。包括每一个类别信息的分析方法和它们所适合的图表展现形式。首先分布介绍类别型变量和数值型变量的分析方法。
单因素分析
这里再啰嗦两句,很多时候我们面对数据无法获得有用的结果或洞察,原因不是因为缺少数据,而是因为数据太多。这里我们将信息进行拆分,每次只针对一类信息进行介绍,发现其中的规律及驱动因素。避免迷失在大量无用的数据中。
前面我们说过,Google Analytics日志收集到的信息分为两类,类别变量和数值变量。下面我们分别来看下这两类信息的分析方法。
类别变量
类别变量指日志中以文本或布尔值的形式记录的信息。这类信息本身不是数据,不能直接进行运算。需要进行处理后才能转化为我们常见的数据形式。例如下面的浏览器信息。每个用户都会使用不同品类的浏览器。当用户访问网站时我们以文本形式记录下了这些浏览器的品牌信息。这类信息就属于类别变量。下面是一组浏览器的品牌信息列表。
对于浏览器品牌这样的类别变量,我们会通过计算生成频率和占比数据。用来分析不同浏览器品牌的流行及重要程度。下面是经计算获得的不同浏览器品牌出现的次数以及在所有浏览器品牌中的占比情况。可以发现,Chrome在所有浏览器中出现次数最多,为30次。占比在所有浏览器中超过50%。说明Chrome在样本数据中是较为流行的浏览器品牌。
柱状图,条形图和饼图或环形图是对类别变量频次和占比数据最好的展现形式,下面我们分别使用的条形图展示了不同浏览器品牌出现的频率,使用环形图展示了不同浏览器品牌的占比情况。
数值变量
数值变量是指日志中以数值形式记录的信息。这些信息可以直接作为数据,或者通过相互间的运算生成新的数据。例如下面的浏览深度是通过到访网站次数和浏览页面总次数计算获得的。
对于数值变量,我们通常使用描述统计来观察这组数据的集中程度和离散程度。用来描述集中程度的指标有平均数,中位数和众数。描述离散程度的有方差和标准差。通过描述统计提供的一系列指标,我们可以发现并描述数值的规律。对于浏览深度数据,通过描述统计可以发现,浏览深度集中在1.5个页面左右。标准差为0.3,表示整体数据离散程度不高。描述统计可以在Excel中数据菜单下的数据分析功能中找到。
除了描述统计外,第二个要分析的是数值的分布。其实前面的平均数,标准差,峰度和偏度几个指标已经大体描绘出了变量分布的形态,但下面的直方图更加直观的展示了数据分布。从直方图中可以看到浏览深度数据符合正态分布,概率最高的是1.5次。换句话说,浏览深度数据集中在1.5页左右,并且较为平稳,变化不大。浏览较多和较少页面的都不多。最少的页面浏览深度为1.12页。最多的页面浏览深度为2.29页。
双变量分析
在前面的单因素分析中,我们分别介绍了类别变量和数值变量的分析方法,下面我们介绍双变量的分析方法。双变量分析简单来说就是单因素的组合。我们把双变量分为三类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。分析两个变量间的关联和差异。
类别变量&类别变量
第一个双变量是类别变量&类别变量。下面是一组客户来源和是否成交情况的列表。记录了每个客户的来源以及最终是否成交的情况。其中客户来源分为线上和线下两个来源,是否成交中已成交的记录为”是”,未成交的记录为”否”。对这组数据我们使用卡方检验来分析线上与线下来源在成交率上是否有显著差异。
卡方检验的方法我们之前有单独的文章进行介绍,感兴趣的朋友可以查看详细的计算过程。这里我们粗略说明下计算过程和结果。首先,生成频率表计算出不同来源的成交与未成交数量。并由此计算出线上和线下来源的成交率数据。
第二步,根据前面频率表中的数据,按照卡方检验的方法计算出线上和线下来源成交与未成交的期望值数据。以下是经过计算获得的期望值数据。
最后,通过使用频率表和期望值的数据进行计算,线上和线下的成交率存在显著差异。具体数据请参考下表。
数值变量&数值变量
第二个双变量是数值变量&数值变量,下面是一组广告消费和点击量的数据。记录了在广告平台上的消费情况和获得的点击量数据。对于这组数据我们通过关联分析来分析消费和点击量之间的关联。
相关分析的方法有很多种,我们之前单独有文章介绍过《5种常用的相关分析方法》。这里使用相关分析来分析消费和点击量数据间的关联。通过Excel数据菜单中的数据分析功能获得消费和点击量的相关性数据为0.95,说明消费和点击量高度正相关。
对于两组数值变量,最好的展现形式是使用散点图。下面通过散点图描述了点击量与消费的关系。随着消费的增长,点击量也随之增长。在Excel的散点图中,选择添加趋势线可以自动生成回归方程和判定系数R方。点击量有91%的变化可以被解释。
类别变量&数值变量
第三个双变量是类别变量&数值变量,下面是一组每日访问量数据,分别对应了每一天网站获得的访问量数据。其中日期是类别变量,访问量是数值变量。我们在前15天和后15天分别使用了不同的推广策略。下面将分别使用Z建议和T检验分析访问量数据前后变化差异的显著性。
首先将30天的访问量数据按投放策略分为前后两组,每组各15天,然后计算出每组数据的均值和方差。具体数据如下表所示。
然后在Excel的数据菜单中选择数据分析,使用其中的Z检验进行差异显著性检验。经检验,在95%的置信区间下两组访问量数据间不存在显著性差异。
T检验和Z检验类似,我们在Excel对数据菜单中选择数据分析,使用T检验对两组访问量数据进行差异显著性检验,经检验在95%的置信区间下两组访问量数据不存在显著差异。
最后,总结一下整篇文章的内容。我们将信息分为两类,类别变量和数值变量,类别变量是以文本或布尔值记录的信息,数值变量是以数字记录的信息。在单独对这两类信息进行分析时,类别变量通常使用频率和占比的方法,数值变量通常使用藐视统计和数据分布的方法进行分析。在双变量分析中,主要分析两个变量间的关联和差异的显著性。双变量分析分为三大类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。第一种类别变量&类别变量通过卡方检验分析数据间差异的显著性。数值变量&数值变量通过线性相关分析发现数据间的关系。类别变量&数值变量通过Z检验和T检验分析数据间差异的显著性。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27