京公网安备 11010802034615号
经营许可证编号:京B2-20210330
人人都应学会的4个数据分析思路
数据分析能力对于一名产品经理来说是最基本的能力。
在面试的过程中,社招会有面试官会问你以往你负责的产品的相关数据,如何看待这些数据,如何通过这些数据来做接下来的产品优化;校招的面试官可能会问小伙伴们关于分析数据的思维;在产品经理的日常工作当中,要时长盯着数据的报表来分析产品的健康程度。本文不再对一些基本的数据定义再做描述,而是从分析的思路总结了一些心得,欢迎各位一起来讨论。
1.看数据的维度
在对一款产品或者一款产品的其中的一个模块进行分析时,我们可以从两个大维度去分析数据。
首先是从广阔的视角先去查看数据,这里需要对该产品所处的行业数据有一个清晰的了解,该产品所处的行业自己所处的市场占有率的排名,一般市场占有率指的是用户的占有量,一般从行业报告可以看出大概的数据。
然后接下来需要分析这款产品的总的数据情况,比如下载量、DAU、WAU、MAU等,以及该产品的最核心的数据是什么,并且如何有可能从侧面去了解这款产品的竞品的相关数据是什么。
当了解完以上这些总体的信息,我们心中应该对自己所负责的产品有了一个宏观的概念,自己在行业内所处的位置,以及现在最需要提升哪些数据指标都有了一个清晰的认识。接下来就可以从大纬度切入到小纬度,进一步去分析一些细节的数据。例如重要的数据信息,包括用户的基本的构成信息,每个模块自己建立的漏斗信息等。一般在做分析的时候应该注意的是数据的异常现象,出现局部的极值(包括极大值和极小值)都需要进行分析。
2.什么才是好的数据指标?
在做数据分析的过程中,我们需要了解什么样的数据才是好数据,如果单纯地去看一个数据是没有太大意义的,数据本身也具有相应的欺骗性,比如从运营同学那得到了日新增用户数1W,那么单纯看这个数据没有什么意义,我们可以说这个数据很好,因为看上去很大,但是你可能没有看到同期的数据,有可能昨天的数据达到了2W。
第一,好的数据一定是首先最好是以比率的形式存在的,不要绝对数,要相对数据。
比如上面的那个数据我们换成增长率,换成环比这个数据,我们就可以进一步的了解到这个数据的好坏。
第二,就是通过对比来判断数据的好坏。
我们将数据的日增长量做成一个折线图,从折线图我们就能看出这个数据是在高点还是在低点。通过对比,我们就会得知这个数据所处的位置是什么样的。另外,通过对比不同的渠道,对比不同的版本,对比不同的用户群等不同纬度的数据,都可以从侧面反映出这个数据的真实情况。
第三,数据不是一成不变的情况,要动态的去看数据。
单纯只看一个点的数据情况是没有意义的,我们要在数据中加入时间的纬度。引入一段单位的时间去看待数据整体的变化趋势,这样才能更为客观的判断产品的健康程度。
3.发现数据异常后如何分析?
有时候从总量的角度是无法洞察出一些问题的。比如在某段时间内,下载量出现了下跌,我们需要去找到这个当中问题出现在哪里。从总量的角度看,安卓的渠道要比IOS的总量大很多,这并不能说明问题。那么我们首先需要将时间的纬度引入到当中,将这几个月纬度的数据进行对比,一定可以看到在安卓当中有一个月份的数值相比其他较低。然后我们再去看这个月份的情况。一般情况下,在找到这个异常会先从渠道的角度去分析,查看是哪个渠道发生了异常的现象。在针对性的去对渠道进行优化。
然后我们还可以从版本的角度去分析,去查看最近近期是否有新版本的更新,如果有新版本的更新,是否设置了新的功能出现了BUG等问题无法解决,导致了用户出现卸载应用的情况。当然这些角度都要加入时间的纬度去判断。
另外,数据异常也不一定是坏事情。比如在分析用户行为的过程中,如果发现了某些类别的用户的关键指标表现良好,那么就一定要分析为什么这些用户的数据表现为什么十分良好,这也是增长黑客的分析思路。比如在facebook早期发现,如果一名用户在刚使用产品的早期可以快速添加10明好友以上的用户,这类的用户的活跃程度就明显高于其他的用户。在比如airbnb在早期发现那些放置的照片十分精美的住家的出租率较好,发现了这个特性后,内部产品技术团队又进行了一次AB测试,发现果然是存在这样的优化点。
所以在早期一个关键的指标就是如何能快速提高用户添加其他好友的数量。这里需要我们从底层数据分析当中要注意对用户进行分层的处理,从不同的纬度分层找到数据异常的族群,找到共性,归纳表现良好的用户的共性,然后将其作为优化的指标进行优化。
4.关键指标应随产品阶段性变化
在做数据分析的之前,需要我们对我们分析的目标进行确认,每个阶段的目标也存在着不同的目标,是为了增强用户粘性,还是为了提升营收,或者是为了提高病毒传播系数。
比如在对渠道的判断中,不能只关心拉过来的新用户量,最重要的是我们要关心这些新拉过来的用户对产品的关键指标的影响,比如在社区产品,相比新进用户的数量更应该关心这些用户的活跃度,发布帖子的数量,点赞的数量等关键指标。换句话说更应该关注的是漏斗模型最下方的那个量,关注转化率的最底层的那个数据。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27