京公网安备 11010802034615号
经营许可证编号:京B2-20210330
在 CDA(Certified Data Analyst)数据分析师认证体系中,描述性统计是贯穿初级到中级认证的核心模块,占比约 15%。不同于推断统计的 “概率预测”,描述性统计通过整理、概括数据的基础特征,将零散数据转化为可解读的信息,是 CDA 分析师开展后续分析(如建模、预测)的前置环节。根据 CDA 考试大纲,该模块要求掌握 “集中趋势、离散程度、分布形态” 三大类指标的计算与解读,以及 “数据可视化与业务洞察转化” 能力 —— 例如,某零售企业的 CDA 分析师通过描述性统计发现客单价的中位数显著低于均值,进而定位低收入客群的消费痛点,为促销策略提供方向。
描述性统计的核心是通过量化指标揭示数据 “是什么”,而非 “为什么”,其指标体系可分为三大维度,每类指标在 CDA 认证中均有明确考核标准:
集中趋势反映数据的平均水平,是 CDA 分析师判断数据整体特征的首要工具,核心指标包括:
均值(Mean):所有数据的算术平均,适用于对称分布且无异常值的场景。例如,某电商平台日均订单量的均值为 5000 单,可作为基础运营目标的参考。
CDA 考点提示:均值对异常值敏感,若存在极端大值(如单日促销订单 10 万单),需结合中位数修正结论。
中位数(Median):将数据排序后位于中间位置的数值,适用于偏态分布或含异常值的数据。例如,某公司员工薪资分布呈右偏(少数高管薪资极高),此时中位数(8000 元 / 月)比均值(12000 元 / 月)更能反映普通员工的薪资水平。
众数(Mode):数据中出现频率最高的数值,适用于分类数据或离散数据。例如,某快消品牌的产品规格中,“500ml” 的销量占比达 60%,众数指标直接指导生产备货。
离散程度衡量数据的分散程度,是 CDA 认证中 “风险评估”“稳定性分析” 的关键,核心指标包括:
标准差(Standard Deviation):反映数据与均值的平均偏离度,值越小说明数据越稳定。例如,某连锁超市的日销售额标准差为 2000 元(均值 5 万元),说明销售额波动可控;若标准差达 1 万元,则需排查门店运营问题。
四分位数(Quartiles)与四分位距(IQR):通过 Q1(25% 分位数)、Q2(中位数)、Q3(75% 分位数)划分数据区间,IQR=Q3-Q1,可有效识别异常值(超出 Q1-1.5IQR 或 Q3+1.5IQR 的数值)。
CDA 实践案例:某金融平台通过四分位距筛选出 “贷款金额超过 Q3+1.5IQR” 的客户,作为高风险群体重点审核。
变异系数(CV):标准差与均值的比值,用于对比不同量级数据的离散程度。例如,A 产品日均销量均值 100 件、标准差 20 件,B 产品均值 500 件、标准差 50 件,通过 CV(A=0.2,B=0.1)可知 B 产品销量更稳定。
分布形态揭示数据的概率分布规律,是 CDA 分析师选择后续分析方法的依据,核心指标包括:
偏度(Skewness):衡量数据分布的不对称性。偏度 > 0(右偏)表示数据集中在左侧,右侧有长尾(如用户消费金额,多数人小额消费,少数人高额消费);偏度 < 0(左偏)表示数据集中在右侧,左侧有长尾(如产品使用寿命,多数产品达标,少数提前损坏)。
峰度(Kurtosis):衡量数据分布的陡峭程度。峰度 > 0(尖峰分布)表示数据集中在均值附近,波动小(如成熟产品的质量检测数据);峰度 < 0(平峰分布)表示数据分散,波动大(如新产品的用户反馈评分)。
CDA 分析师开展描述性统计需遵循 “数据清洗→指标计算→解读可视化→业务落地” 四步流程,且需熟练运用 Python/R 工具实现:
描述性统计的准确性依赖数据质量,CDA 认证要求优先处理两类问题:
缺失值:若缺失率 <5%,可通过 “均值 / 中位数填充”(数值型数据)或 “众数填充”(分类数据);若缺失率 > 20%,需评估字段必要性(如某用户行为数据中 “浏览时长” 缺失率 30%,可直接删除该字段)。
import pandas as pd
import numpy as np
# 读取数据
data = pd.read_csv("sales_data.csv")
# 计算Z-score
z_scores = np.abs((data["sales"] - data["sales"].mean()) / data["sales"].std())
# 筛选正常数据(Z-score<3)
clean_data = data[z_scores < 3]
CDA 认证推荐使用 Python 的pandas库或 R 的summary()函数快速生成描述性统计指标,例如:
# 计算集中趋势
mean_sales = clean_data["sales"].mean() # 均值
median_sales = clean_data["sales"].median() # 中位数
mode_sales = clean_data["sales"].mode()[0] # 众数
# 计算离散程度
std_sales = clean_data["sales"].std() # 标准差
iqr_sales = clean_data["sales"].quantile(0.75) - clean_data["sales"].quantile(0.25) # 四分位距
# 输出结果
print(f"销量均值:{mean_sales:.2f},中位数:{median_sales:.2f}")
print(f"销量标准差:{std_sales:.2f},四分位距:{iqr_sales:.2f}")
CDA 认证强调 “让数据说话”,需通过可视化将指标转化为业务语言:
基础可视化:用折线图展示均值变化趋势,箱线图呈现离散程度(如某门店月度销量箱线图,可直观看到 Q4 存在多个异常高值,对应双 11 促销);
BI 工具应用:在 FineBI 或 Tableau 中搭建 “描述性统计看板”,联动筛选 “区域 - 时间 - 产品” 维度,例如某品牌通过看板发现 “华东区域客单价中位数高于全国 15%”,进而加大该区域的高端产品投放。
某连锁便利店的 CDA 分析师对 2024 年 Q1 消费数据开展描述性统计:
集中趋势:客单价均值 35 元,中位数 30 元(说明存在高消费客群拉高均值);
离散程度:客单价标准差 18 元,四分位距 22 元(消费金额差异较大);
分布形态:客单价偏度 = 1.2(右偏),峰度 = 0.8(平峰)。
业务落地:针对高消费客群(客单价 > Q3=48 元)推出 “会员专属套餐”,针对普通客群(客单价 15-30 元)推出 “组合优惠”,推动 Q2 整体客单价提升 8%。
某银行 CDA 分析师对申请贷款客户的收入数据进行描述性统计:
收入中位数 8000 元 / 月,均值 10500 元 / 月(存在高收入客户);
收入标准差 5000 元,异常值界定为 “收入> 8000+1.5×(12000-6000)=17000 元” 或 “收入 < 6000-1.5×6000=-3000 元”(排除负收入异常值);
高收入客户(>17000 元)占比 5%,但其贷款违约率仅 0.3%(远低于平均 2%)。
业务落地:将收入中位数作为基础授信门槛,对高收入客户简化审核流程,提升审批效率的同时降低风险。
考点聚焦:重点掌握 “异常值处理方法”“偏度 / 峰度的业务解读”“不同数据类型(数值型 / 分类型)的指标选择”—— 例如,分类数据(如用户性别)仅能用众数描述集中趋势,不能用均值。
工具深化:除pandas外,学习 Python 的scipy.stats库计算偏度、峰度,用seaborn绘制更专业的分布可视化图表(如小提琴图结合箱线图,同时展示分布形态与离散程度)。
业务关联:避免 “唯指标论”,例如某产品的销量均值下降,但中位数上升,需结合业务场景分析(可能是低端产品销量减少,高端产品销量稳定,并非整体下滑)。
描述性统计是 CDA 数据分析师的 “基本功”,其价值不在于复杂的计算,而在于从基础指标中挖掘业务痛点。通过掌握集中趋势、离散程度、分布形态的核心逻辑,结合 CDA 认证的工具与流程要求,分析师可将零散数据转化为决策依据,为企业的精细化运营奠定基础。建议备考 CDA 的读者通过 SQLPub、Kaggle 等平台练习真实数据集,在实践中提升指标解读与业务转化能力。

数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27对数据分析从业者和学生而言,表结构数据是最基础也最核心的分析载体——CRM系统的用户表、门店的销售明细表、仓库的库存表,都 ...
2025-11-27在业务数据可视化中,热力图(Heat Map)是传递“数据密度与分布特征”的核心工具——它通过颜色深浅直观呈现数据值的高低,让“ ...
2025-11-26在企业数字化转型中,业务数据分析师是连接数据与决策的核心纽带。但“数据分析师”并非单一角色,从初级到高级,其职责边界、能 ...
2025-11-26表格结构数据以“行存样本、列储属性”的规范形态,成为CDA数据分析师最核心的工作载体。从零售门店的销售明细表到电商平台的用 ...
2025-11-26在pandas数据处理工作流中,“列标签”(Column Labels)是连接数据与操作的核心桥梁——它不仅是DataFrame数据结构的“索引标识 ...
2025-11-25Anaconda作为数据科学领域的“瑞士军刀”,集成了Python解释器、conda包管理工具及海量科学计算库,是科研人员、开发者的必备工 ...
2025-11-25在CDA(Certified Data Analyst)数据分析师的日常工作中,表格结构数据是最常接触的“数据形态”——从CRM系统导出的用户信息表 ...
2025-11-25在大数据营销从“粗放投放”向“精准运营”转型的过程中,企业常面临“数据维度繁杂,核心影响因素模糊”的困境——动辄上百个用 ...
2025-11-24当流量红利逐渐消退,“精准触达、高效转化、长效留存”成为企业营销的核心命题。大数据技术的突破,让营销从“广撒网”的粗放模 ...
2025-11-24在商业数据分析的全链路中,报告呈现是CDA(Certified Data Analyst)数据分析师传递价值的“最后一公里”,也是最容易被忽视的 ...
2025-11-24在数据可视化实践中,数据系列与数据标签的混淆是导致图表失效的高频问题——将数据标签的样式调整等同于数据系列的维度优化,或 ...
2025-11-21在数据可视化领域,“静态报表无法展现数据的时间变化与维度关联”是长期痛点——当业务人员需要分析“不同年份的区域销售趋势” ...
2025-11-21在企业战略决策的场景中,“PESTEL分析”“波特五力模型”等经典方法常被提及,但很多时候却陷入“定性描述多、数据支撑少”的困 ...
2025-11-21在企业数字化转型过程中,“业务模型”与“数据模型”常被同时提及,却也频繁被混淆——业务团队口中的“用户增长模型”聚焦“如 ...
2025-11-20在游戏行业“高获客成本、低留存率”的痛点下,“提前预测用户流失并精准召回”成为运营核心命题。而用户流失并非突发行为——从 ...
2025-11-20