京公网安备 11010802034615号
经营许可证编号:京B2-20210330
如何运用数据分析对某个试运营项目进行“无死角”的复盘?
最近常常有小伙伴问我,大概是如下几个问题: 我手里没有多少数据可以供分析,怎么办?我手上有一些数据,但是不知道该如何分析,怎么办?我有一些数据,也知道该做哪些分析,但是不会高大上的工具,怎么办?
对于小喵来说,上面的问题都是伪命题,很多时候,我们做数据时手里掌握的数据总比我需要的多,深入了解业务后,方法总比问题多;方法有了,工具的使用总比想象的简单多~
好了,先看一个栗子吧,看完你就了然小喵为什么这么说咯。
话说,某年某月,某外地零食O2O品牌,想要开拓上海市场,本着“稳扎稳打,步步为营”的“精益创业”方针,该品牌准备先在上海几个有代表性的区域进行试运营。
选了3个区域---杨浦区、长宁区和徐汇区,在这3个区人流较大、办公楼密集的区域重点设立了三个实体营业网点,分别位于五角场地铁站、淞虹路地铁站和漕河泾地铁站附近,并以这3个地铁站作为辐射推广点,上下班高峰期在地铁口附近进行DM推广,上班期间则在附近办公楼进行扫楼推广(别问我推广人员是怎么混进去的)。试运营始于七月下旬,到八月下旬正好运行一个月后,是为第一阶段。此时,需要对这段时间的运营数据进行分析,修整并总结经验,着重在以下几个方面进行探讨和研究:
由于前期技术人员太少且负责的项目过多,后台系统过于简陋,后台收集到的原始数据只有下面这些:
原始数据表格
上表是这段时间内,用户下单的信息。注意,同一个User Id可能不止一次下单,可能在不同日期、不同时间段形成多次不同金额的消费,了解这一点对于接下来的用户价值分析至关重要。
好了,各位看官,上面那张表将是小喵接下来炒菜用的“食材”(来源于真实案例,数据会做一定处理,仅作展示数据分析方法之用),没有其他佐料哦(大部分时间使用excel来处理数据)~这些数据看起来平淡无奇,但如果开动脑筋深挖的话,就大有玄机哦。
好了,我们的数据分析之旅即将开始咯!
在进行深入分析前,先将原始数据进行初步处理---主要是时间维度的处理。分别调用hour和weekday函数将小时“时点”和“周几”的信息发掘出来,至于“时段”的得来,之前很多小伙伴有问过这是怎样“设计”出来,百度上也搜不出来呐,那当然,这可是我自创的哦~现在小喵贴出一张详情图:
经处理得到若干时间维度数据的表格
“时段”的操作方法
如此这般,即可得到以下关于下单时间分布的信息:
试运营期间订单量时段分布情况
那么,在这张下单时间段分布的图中,又能看出什么苗头呢?其实,很明显的,下单时间只有一个“波峰“---集中在9时~13时,这段时间的小白领除了吃午饭时间是正当的下单行为,其余时间是在”开小差“~
再分析一下试运营期间总体的订单销售情况,将“日期”信息和“星期”信息同时显示在横坐标轴上,更容易发现时间上的下单规律,做成折线图,可以看到如下的结果。
试运营期间整体订单分布情况
从上表中,总体上可以看出,工作日的订单多于休息日的订单,在7-27~7-31和8-3~8-6期间出现订单销售高峰,这2段时间的订单量骤然增长。究其原因,与这3个实体网点做促销活动有很大关系,刺激了目标客户的购买行为。
再单独将“星期”数据“拎”出来,得到下图:
试运营期间一周订单分布情况
从上图可以看出,一周的下单高峰集中在周三、周四这2天,周一和周二的订单量也和这两天相差无几,但是到了周五,特别是周末(周六和周日),订单量就陡然下降。
总的来说,周中的下单量很大,周末的订单量很小,这与白领区的人群消费行为是一致的,无异常情况发生。
得知以上几点信息后,在开展下一阶段的运营工作时,就可以在接下来的运营工作中准备如下事宜:
赶在用户下单高峰时期前,在营业网点安排好人员,做好部署工作,以便及时、快速的将货品送交到用户手中;
在用户下单高峰期到来前一段时间,做好APP和网站的系统维护,以免因下单量大出现技术问题,影响用户体验;
进行下一轮的推广工作时,可以选在周三和周四开展,这2天的用户下单意愿更强烈。
以上关于客户(时间上)行为的分析比较浅显,接下来的客户价值的分析才是“重头戏”呢!
这里的客户价值分析,小喵将用到RFM模型,其中涉及到3个重要的维度,即最近一次消费(Recency)、消费频率(Frequency)和消费金额(Monetary)。
RFM三维度含义
关于这个模型的解释,小喵只搬出某度百科上的关键性语句,想更进一步去了解这个模型的同学自己去网上搜哈~
某度百科上关于RFM模型的原理解释
其中,各个维度的“深层次”含义是:
最近一次消费能显示客户能受到的可能性有多大,最近一次消费的日期距离今天越近,消费者对产品/品牌的印象就越深刻,被广告推送召唤回来的可能性就越大;
客户的消费频次越高,代表客户对品牌或产品的忠诚度越高,当然这种客户也更有维系的价值,即使平时消费金额不多,但谁知道以后会不会有大手笔呢;
消费金额(这里指的是“累计消费金额”)表示消费者的购买力大小,消费金额越大,这种顾客就越优质,当然我们要把他们当宝贝呵护起来~
这种客户价值分析模型虽然很好,但是存在如下几个问题:
针对以上问题,小喵决定对现有的RFM模型进行一些改良,并祭出“大杀器”---聚类分析,用以简化我们的深度分析工作。
不过,在进行聚类分析之前,需要先预处理下之前的原始数据,除了保留“User ID”、“重点区块”这两个基本信息,还要保留及深度“析出”跟R、F、M这3个维度相关的若干指标:
从“实付金额”这个指标中,通过相关函数进行运算,可以得到“最小消费金额”、“最大消费金额”、“平均消费金额”和“累计消费金额”这4个指标;
而从“下单日期”这个指标,通过相关函数进行运算,可以得到“最初下单日期”、“最后下单日期”、“最初下单日期到今天的间隔天数”、“最近一次下单到今天间隔天数”及“累计购买频次”这5个指标。
重要的分析指标及相关指标的“从属关系”
其中,以上衍生指标的计算公式/方法分别为:
“最大/最小消费金额”通过公式“=MAX/MIN(IF(原始数据!$A$1:$A$7028=Sheet1!A2,原始数据!$H$1:$H$7028))”得到;
“最初/最后下单日期”通过公式“=MAX/MIN(IF(原始数据!$A$1:$A$7028=Sheet1!A2,原始数据!$N$1:$N$7028))”得到;
“累计购买频次”则由透视表得出,同一个User Id下,将任意指标进行“计数”显示,即可得出频次。
“最后下单到今天间隔天数”由公式“DATEDIF(E2,TODAY(),"d")”得到;最初下单到今天间隔天数由公式“=DATEDIF(D2,TODAY(),"d")”得到,其中E列是最后下单日期所代表的列,D列代表最初(第一次)下单的日期的列。
值得注意的是,上述公式是在新的sheet里构建的,引用的是原始表单里的数据。且后面的间隔天数需要等最初/最后下单日期确定后才能计算出。
最小购买金额计算方法
购买频次的计算方法
将上述指标进行计算后,得到下面的客户信息价值表,可以作为下一步分析的原始数据。
经处理后的客户价值信息表单
然后将该excel表单录入SPSS系统,详细的聚类分析方法。经运算后,可以得到如下新表:
聚类分析后得到的SPSS输出数据
可以看出,上表中多了一列关于“分类”的数据,这就是SPSS软件根据表中用户购买信息(购买金额和购买日期等)在若干维度上的同质性和异质性划分出的4类(由于运营喵使用的是K-means聚类法,需要人为设定分为几类,所以在确定4类之前,需要反复测试2类、3类、5类的数据,直到能在各个分类间体现出明显的差异性,且具有良好的集中度为止)
再用透视表处理一下,将每类数据的“值字段”显示为“平均值项”,得到“用户价值分类特征表“。
用户价值分类特征表
在对上表进行分析之前,小喵需要指出的是:上述指标的重要性不是同一水平的,其中各指标的权重有大有小,重要性不一,而权重系数需要根据以往经验和业务情况进行分配,这里仅给出小喵的判断:
累计购买频次的权重最大,因为多次购买行为即使平均/累计消费金额不多,但反复多次的购买行为代表用户对品牌/产品的认可,能反映出用户的忠诚度;
其次最近一次下单日期,隔得不太久的话,使用客户召回策略的成功率会很高;
然后是平均消费金额,单次高消费或单次低消费都不能准确地反映出客户在本产品上的购买力水平,取历史平均水平才能看出他在本产品上的消费能力,但要结合最低和最高消费金额来看,看是否二者间的差距过大,稳定性如何;
最次是累计消费金额,反映客户在某段时间内累计的消费情况,也能体现客户对产品/品牌的持续价值。
根据上述判断,第2类和第3类属于较为优质的顾客,他们在购买频次、最近一次购买时间、累计消费金额和平均消费金额上的数值水平均衡且较好,是重点需要维护的对象,以后可以对这2类用户推送价值较高的优惠活动/信息,促进其后续的购买行为。
第1类客户属于“土豪级”,虽购买频次较低,但购买金额很大,跟其他几类客户比起来,购买力相当彪悍,有钱可任性,但留住很困难。。。
此外,第4类的用户数较多,是有潜力待挖掘的客户群。这类群体的特征是平均消费金额和累计消费金额低,购买次数较少,且很久未再买产品了,召唤回的概率很小,可以对这部分客户进行回访,找出产品和服务方面存在的问题,做好优化,苦练内功,以便下次进行推广的时候一次就“摁住”客户。
综上,第2类、第3类客户是我们接下来重点抱大腿的目标,这是“节流”;根据第4类客户的回访得到改进产品和服务的建议,在接下来的运营工作中招揽新客户,这是“开源”。
看到这里,你以为结束了?
NO,you too naive~小喵要把数据榨干,尽可能得到对运营工作有用的信息!
以下是经透视表处理后的各区3类用户的占比情况:
各区块3种类型客户的分布情况
上表是各区3类客户分布的情况,从中可以看出淞虹路的总体下单客户量最大,其次是漕河泾,再次是五角场。
此外,由上述数据还可以得出下列概况:
使用excel中的多重判断函数公式,将客户的单次平均消费金额划分为7个档次,函数公式太反人类,小喵就不列了,大家知道原理就好。建议档次别分太多,excel中的if嵌套貌似最多7层。。。
消费金额区间客户数量占比表
由此得到各个消费金额区间的客户占比情况,可以了解到试运营期间客户的整体消费结构怎样。表格看起来不直观,直接转化成下面的2个图,上图定量比较,下图定性分析占比情况。
平均消费金额区间客户数量分布
各消费金额区间客户数量占比情况
在分析上面两个图前,需要指出的是,该O2O零食品牌绝大部分的单件产品的价格在3~15元之间。那么由上述图表可以得知,绝大部分客户下单时,购买不止一件商品,说明连带率(连带率是服装行业销售的一个指标,描述的是顾客在一次购买过程中,同时一次性买走几件商品,它反映了商品的搭配有效性。暴露出身了,小喵是学服装出身的)不错呢,比如客户买香肠的时候同时买了鸡翅、可乐和薯条,说明这样的产品的组合搭配尚可。当然,这还有很大幅度的提升空间呢~
购买频次客户数量分布图
最后是购买频次的客户数量分布图,能反映出用户的忠诚度情况。其中,仅购买过一次的用户占了大头,看到这样的数据,运营人员要思考,为啥这么多的客户只买了一次呢,难道自家的东西不好吃么?所以,以后要好好研究市场,研究客户,研究竞争对手,练好自己的内功。
从这个例子中,小喵想说的是:当我们拥有一份原始数据时,在结合当前业务的情况下,运用自己的数据分析经验和储备的理论知识,尽量把这些数据“榨干”,汲取有价值、有营养的信息。如此这般,最终的数据/分析报告不仅可以作为我们汇报给领导或相关部门的资料,供他们参考,更重要的是,它能指导和优化我们后续的运营工作,为我们积累宝贵的运营经验。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27