京公网安备 11010802034615号
经营许可证编号:京B2-20210330
运营数据中常见的数据陷阱
当下的时代已经是一个真正的大数据时代,而互联网产品达到亿级的用户量,甚至十亿级的用户量,都已经不鲜见了,产品的迭代方向,用户行为的分析都要用数据说话,产品经理、运营人员想要做出正确的决定,要比以往任何时候都更加依赖数据。
如今,“大数据”的概念已经被炒得沸沸扬扬,不可否认,现在的各个领域的数据确实是越来越多了,人们的数据意识也正在增强,尤其是在积累相对容易的电商行业,但面对众多的运营数据,你真的能有效的将其应用吗?先不谈各种复杂的计量模型,先从几个简单的统计学概念入手,提醒大家:数据有陷阱,应用需谨慎。
1、算术平均数的局限性
算数平均数,即几个数字相加后除以个数,这也许是大家仅有的对平均数的理解,但其实平均数还有很多,比如中位数、几何平均数、众数等等。
对此,我们先来看一个例子:某店铺一段时间的营业额数据如下:该店铺12期销售额的算数平均数是300,但有10期数值都在300以下,这样的数值合理吗?前10期的算数平均数仅是210,和300相去甚远,显然后面两期的数值对整体的拉升作用明显。
来个更极端的例子,三个人的年收入分别是3万、3万和300万,但算数平均是102万,原本是两个屌丝和一个高帅富,可一平均后大家都成了高帅富,大家很多时候吐槽统计数字有水分,其实这就是算术平均数的陷阱。
那么,怎样获得更准确的平均数呢?有人说,“去掉最大值,去掉最小值”,这方法没错,但略显粗暴,我们介绍几个更科学的计算方式。
先看中位数,中位数即将数列从小到大排列后,取中间位置的那个数字作为平均数,若数列是偶数,则取中间两位数的算数平均,例1的中位数是200,显然比300要来的合理的多。
其次是众数,即出现频率最高的那个数。
最后介绍下几何平均数,若要求5个数字的几何平均数,则将这5个数连乘后开5次方,例1中的几何平均数是268,也要比300更接近真实水平。
目前普遍在用的算数平均数,受极值的影响很大,其准确性是值得管理者们注意的,马海祥建议管理者将中位数也应用起来,对算数平均的判断起辅助作用,若两者相差过大,则需要找到极值产生的原因。
在EXCEL中,中位数、众数和几何平均数的函数分别是MEDIAN、MODE和GEOMEAN,应用起来非常方便。
2、引入定基比率
目前大家比较熟悉的是同比增长率和环比增长率,同比增长率能够排除掉季节性的因素,反映出较为实质性的增长,而环比能够连续地、动态地反映出指标的变化,但仅有这两个指标有时候是不够的。
比如,去年和今年市场行情相差很大,那么同比(今年与去年同期比)的参照性就很不可靠,而环比只看到了这期和上期的差异,若相隔的期数多了,就很难判断现在的状况如何,怎么办?大家不要忘了定基比率,即将固定的某期设为基数,其后各期该期进行对比。
比如某店铺今年1月至12月的销售额数据为(10,12,13,16,18,13,17,19,18,20,25,22),我们将1月数据设为基数100,其后各期与之的比值即为定基比数据(100,120,130,…,250,220),马海祥认为定基比有时更能反映出某段时间的经营成果,比如某项改革从1月开始了,那就将各种运营指标以1月为基期,以后各月与它对比,便能直观反映这项改革带来的效果(具体可查看马海祥博客《如何以客户为中心进行数据挖掘与分析》的相关介绍)。
3、绝对的排名不一定可靠
某天你孩子向你报告考试成绩,说考了第9名,你是高兴还是愤怒?先别急着下论断,得先问问几个人考试,若是500人,那你必然赐予拥吻和礼物;而若是10个人,你八成会赏个巴掌,这就是绝对数字排名的局限性。
那么,我们用个百分比数值来代替之,就免去了这样的尴尬,即排名数值除以总的参与排名的个数,比如我经营50款产品,某款产品销售额排在第8位,那就表明它排在16%。
要多说一点的是,在百分比的排名中,需重视四分位数,即25%,50%,75%三个档次,许多指标的优劣都会以四分卫数来衡量,比如你的转化率在行业内的前25%以内浮动,那你暂时不用担心,将精力放在其他方面,若低于25%了,那你或许要花力气来提升你的转化率了。
4、不要被漂亮的增长曲线蒙蔽
对于许多中小型的电商企业,经营的第一步便是冲销售额,因此粗放经营是普态,对各种指标的大起大落习以为常,有了漂亮的增长业绩,稳定性真的不重要吗?马海祥不这么认为,尤其是成本,稳定各项成本是对企业发展的一种蓄力。
比如采购成本,许多企业判断其采购成本的唯一指标便是算数平均数,其弊端在上文中已经指出,而对稳定性的认识只停留在人的主观感受或采购曲线的波动上,马海祥建议电商们计算方差指标,即EXCEL中的VAR函数,方差越大,表示该指标稳定性越差。
一般来说,一个健康的企业,不管销售额如何变化,其成本的稳定性(绝对值较稳定或者变化率较稳定)会较强,即方差较小,稳定性变差,一般预示着重大变化的来临,面对越来越饱和的市场和越来越激烈的竞争,电商企业急需关注自己运营的稳定性,尤其是与供应链各个环节相关的稳定性,如采购成本、推广费用、物流费用等等,任何指标若变得不稳定了,就该警惕,找出背后的原因(具体可查看马海祥博客《如何通过大数据来获取商业价值》的相关介绍)。
5、不要太在意活动中的数据
马海祥有幸观察过一个日化店铺的数据,老板非常想知道什么因素对销售额的影响最大?在对其运营数据进行回归分析后,发现做活动的次数和时长对其销售额都没有影响(统计不显著),唯一有影响的是客单价,客单价越低销售额越高。
乍看之下,这个结论着实有些让人无语(因为谁都知道),但模型显示,客单价每降低一元,总销售额提升100多,鉴于其高于50%的毛利率,降价一元可以总体上多赚50块,但是总销售额是万元级的,因此多赚的50元微不足道,所以总体上看,销售额似乎是一个不受人为控制的指标(自然波动),这似乎是一个谜题。
但促销活动的不显著是值得我们思考的,当然,也许是我们遗漏了某关键的指标,也许仅仅有客单价、促销次数、促销天数、转化率、UV、熟客率等指标是不够的,但不妨自问,我们很多时候是不是太过看重促销和推广了呢!
6、数据的“假规律”和“伪相关”
数据越大未必就能带来更高的预测率,甚至还会带来“假规律”和“伪相关”,比方说:搜索2005至2015年间的美国汽车销售与“印度餐馆”,结果发现二者之间竟然存在相关关系,这个东西显然是无法解释的,那么,伪相关的原因是什么呢?
首先,相关性并不意味着因果关系,比方说:Google Flu Trends对趋势的预测并非屡试不爽,有几次Google Trends就严重高估了流感病例的数量,包括2011/12的美国流感,2008/09瑞士流感,2008/09德国流感、2008/09比利时流感等。
英国伦敦大学学院的研究人员对此进行了研究,结果发现,到Google搜索“流感”的人可以分成两类:一类是感冒患者;另一类是跟风搜索者(可能是因为媒体报道而对感冒话题感兴趣者)。
显然第一类人的数据才是有用的,其搜索是内部产生的,独立于外界的,因此这些人的搜索模式应该与受到外界影响而进行搜索的人的模式不同,而正是第二类人的社会化搜索使得Google Flu Trends的预测失真,这正是因为Google Flu Trends把搜索“流感”与得流感的相关性当成了因果关系所致。
而稍早前美国东北大学与哈佛大学的研究人员对Google Flu Trends的失真案例进行的另一组研究则认为,这反映出了热炒大数据的氛围下诞生的一股大数据自大思潮,这股思潮认为,大数据完全可以取代传统的数据收集方法,其最大问题在于,绝大多数大数据与经过严谨科学试验和采样设计得到的数据之间存在很大的不同,首先,大未必全;其次,大则可能鱼龙混杂。
此外,Google搜索算法本身的变化也有可能影响到Google Flu Trends的结果,这个原因不难理解,要知道,Google搜索的调整非常频繁,单去年就进行了890项改进,其中就有不少属于算法的调整,媒体对于流感流行的报道会增加与流感相关的词汇的搜索次数,也会令Google增加相关搜索的推荐,从而令一些本身并不感冒的人也对流感产生了兴趣,进而把数据弄脏。
对于清洗数据,归根到底还是需要对数据进行模式分析,在流感趋势这个例子,研究人员认为,执行独立搜索的患流感人群的模式会随着时间推移而异于社会化搜索,其表现应该是在流感爆发时搜索急剧攀升,然后随着流感消失而缓慢下降,相反,社会化搜索则会表现得更为匀称,数据表明,在Google流感趋势出现高估的时候,趋势曲线的对称性的确更高。
这说明在分析大数据时必须要注意此类陷阱,充斥的大数据集以及统计学家对分析结果的传播会令真实的数据被放大或弄脏。
其实,数据的价值并不仅仅体现在其大小和精准度上,利用创新性数据分析方法去分析数据才是本质,在未来数据能够逐步成为真正的大数据,并且数字世界与实体世界的映射趋于一致时,大数据也许就能发挥其完全的威力,乃至于改变我们解决问题的方式。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01