京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据分析漏斗模型浅谈
学习数据分析的朋友应该都听过漏斗模型,但真正了解的可能并不多。因为它不仅仅是一个模型,更是一种可以普遍适用的方法论,或者说是一种思维方式。
今天主要谈谈漏斗模型的本质、漏斗模型案例分析以及如何绘制漏斗模型,希望对正在学习数据分析的同学有些帮助。
(一)漏斗模型
关于漏斗模型,认为本质是分解和量化。为什么这么说,这里以营销漏斗模型举例。
名词解释:营销漏斗模型指的是营销过程中,将非潜在客户逐步变为客户的转化量化模型。营销漏斗模型的价值在于量化了营销过程各个环节的效率,帮助找到薄弱环节。
也就是说营销的环节指的是从获取用户到最终转化成购买这整个流程中的一个个子环节,相邻环节的转化率则就是指用数据指标来量化每一个步骤的表现。所以整个漏斗模型就是先将整个购买流程拆分成一个个步骤,然后用转化率来衡量每一个步骤的表现,最后通过异常的数据指标找出有问题的环节,从而解决问题,优化该步骤,最终达到提升整体购买转化率的目的,整体漏斗模型的核心思想其实可以归为分解和量化。
无独有偶,OKR的核心思想也是这个,即分解和量化。OKR(Objectives and Key Results)全称为“目标和主要成果”, OKR首先是设定一个“目标”(Objective),即大O,然后将该目标拆分为若干个子目标,即小O,最后将小O设定为若干个可以量化的“关键结果”(Key Results),用来帮助自己实现目标,即KRS。通过达成量化的KRS来实现小O,最终达成大O,可以看到整个过程中的核心关键也在于分解和量化。
这就是文章开头部分提到的,我觉得漏斗模型不仅仅只是一个模型,更是一种方法论,一种思维方式的原因。可以通过这种分解和量化的形式,将问题进行不断的拆解,最后通过量化的形式来辅助达成目标,或者针对异常的步骤进行调优,最终达到总目标。它可以广泛应用于流量监控、产品目标转化等日常数据运营工作中,称之为转化漏斗;也可以用于产品、服务销售,称之为销售漏斗。
(二)漏斗模型案例
(1)电商购物流程
分析电商的转化,我们要做的就是监控每个层级上的用户转化,寻找每个层级的可优化点。对于没有按照流程操作的用户,专门绘制他们的转化模型,缩短路径提升用户体验。
(2)AARRR模型
AARRR模型是指Acquisition、Activation、Retention、Revenue、Referral,即用户获取、用户激活、用户留存、用户收益以及用户传播。这是产品运营中比较常见的一个模型,结合产品本身的特点以及产品的生命周期位置,来关注不同的数据指标,最终制定不同的运营策略。
从下面这幅AARRR模型图中,能够比较明显的看出来整个用户的生命周期是呈现逐渐递减趋势的。通过拆解和量化整个用户生命周期各环节,可以进行数据的横向和纵向对比,从而发现对应的问题,最终进行不断的优化迭代。
(三)如何绘制漏斗模型?
漏斗模型的绘制其实很简单,做数据报表的时候可能会用到,数据量不是很大的话,用Excel几分钟就能搞定。
1、 Excel
比如以上图电商的转化漏斗为例
整体的步骤大致可分为计算整体转化率→计算占位数据→插入图表→设置坐标轴格式→调整数据顺序。
1) . 计算整体转化率
计算出单个步骤的转化率,然后快速填充即可。
2) . 计算占位数据
计算单步骤与初始转化率的差值(即100%),差值除以2后获得占位数据。因为最终的柱状图是轴对称的,故取差值的一半进行占位即可。
3) . 插入图表
4) . 设置坐标轴格式
选中坐标轴后,设置坐标轴格式,选中逆序类别,调整顺序后获得如下图表。
将占位的数据填充调整为无填充,占位数据的颜色就会消失。
5) . 调整数据顺序
将占位数据的顺序调整至第一位后,这样看起来就会比较像漏斗了。
最后,在此图表的基础上进行一些美化,再贴到PPT里面加一些描述或者PS处理一下……
如果数据量很大的话,需要长期监测运维,一般是需要连接数据库的。可以用专业的数据分析软件或者BI软件搭建一个dashboard,这里我用的是finebi,把之前那张excel表导入了进去(这里就不做数据库连接演示了)。
1) . 拖拽“漏斗图” -> 选定分类和指标 -> 美化样式
2) . 直接展示
这里的漏斗数据模型是软件本身自配好的,你要做的就是选择字段,和Tableau的操作一样,好处就是方便。漏斗每个层级的大小都反映了当前层级数据的大小,如果数据差距较大,比如像我这样的,会不那么美观。
像互联网电商行业,交易的数据量很大且是实时的,这个技术excel是做不来的,所以像BI类的工具就是有这样的优势。
最后,当然有很多工具可以画出漏斗图,就不一一介绍了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27