京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据的四大特征_大数据
我们总是在谈数据分析,数据分析什么的,那我们现在先不谈数据分析,我们先来谈谈数据分析的基础——数据。那么到底什么是数据,数据有什么特征呢?这个问题虽基础却重要。
这里我们所说的数据,仅指应用于企业运营的市场信息。它是认识事物的中间环节,是事物的表面特征,其作用在于消除事物的不确定性。它至少具有以下四个基本特征。
所谓时效性是指数据的发生和运用要有个提前期,失去时效性,就失去了潜在机会。
举个例子,以前在广州有个大厦,它对数据的时效性运用的就很好。据说有一年,它的经理和别人聊天,人家无意间提起说那年春天广州的雨水将特别大,于是他特意去了广州气象台证实,证实后,他开始调查,发现深圳一家厂子里积压着20万多把雨伞。当时正是11月份,旱季,这家厂子压着20万多把雨伞早就想出手,所以这个大厦的经理就去了深圳,以极低的价格就把雨伞盘进来了。结果那年广州的春天来得特别早,一过春节,这雨哗哗就下起来了,他趁机20多万把雨伞往出卖,结果一销而空。这就是利用了信息的时效性。
简单吗?很简单,只需要到气象台问一下,但是,有多少企业会问呢?其实并不多,因为很多企业就没有提前获取数据的意识。经常是等到下雨了再进雨伞,那就没买卖做了。
数据要具有时效性,或者说数据分析要有预见性,因此,大家在采集数据的时候,要注意数据的时效性,要具备用现在的数据预测未来市场的走向的意识。
数据分析师分析数据的特征之二分散性
数据的分散性,具体表现在两个方面。
1、没有固定发生地
数据没有固定发生地,因此,需要多渠道采集数据,除了上网、图书馆查资料、还要留意电视、杂志等媒体的信息,关注统计局、行业协会、研究机构的数据或者直接做市场调研。
2、零散分布,相互关联才完整
数据是零散的,真正能还原数据的完整性,并充分利用数据的,都是勤于思考,努力寻找数据关联性的人。
在旧社会的解放区,人人都听到,河北省出了一个白毛仙姑,但是谁也没有去琢磨,当时只有20岁的贺敬之琢磨出来了:这叫做旧社会把人变成鬼,新社会把鬼变成人。于是他就写出了不朽的名著叫做《白毛女》,正可谓“人人之所见、人人所未思”。
数据分析师分析数据的特征之三概率性
什么是概率性?简单理解就是看似结果不确定的事情,多次重复,就会显示出一定的规律性。
比如我们抛硬币。抛5次、10次,到底有几次正面向上不好说,但若抛几百次,几千次,正面向上的可能性就稳定在50%左右。
有一个生产装汽水、装啤酒的塑料箱的小厂厂长,了解了数据的概率性,就把北京邮政编码本找来,找到北京130个单位,发了130封信,结果就回来1封,让他拿着样品过去看看,概率够低的。这个厂长怕别人搞不好,就自己夹着箱子去了。这家单位在4楼,厂长把箱子递过去,那老兄看都没看,一推窗户,‘磅’的一声,就给扔出去了。然后那老兄就往下跑,这厂长就在后面追,到了楼下,一看这箱子,一点没坏!那老兄说:“行!这箱子挺结实的,定货!”半年的买卖就有了。玩的就是概率。
数据的概率性告诉我们:成功=努力+等待。
所谓再创性是指我们所看到的数据只是一种现象和启示,不同的人会得出不同的结论。而要想透过现象看本质,需要用发展的眼光看问题,通过深入的分析,找出隐藏在市场现象背后的机会。
例如,二战后,松下幸之助开始研制一个非常不起眼的家庭用电机,好多人嘲笑他,说电机都是工厂用的,你这电机家庭干什么使呢。但是,松下幸之助看到了家用电机的发展,他说:‘现在是零,将来就是无限。’用发展的眼光看问题,才能再创性地挖掘机会。
再讲个故事:有甲、乙两个推销员,同时到非洲的一个岛国卖鞋子。这个岛国里人人都光着脚丫。甲推销员一见到他们都不穿鞋,于是认为鞋子在这里没有销路;而乙推销员将数据进行再创,看到他们不穿鞋,于是拿着鞋子来做调查,经调查发现:这里的人之所以不穿鞋,是因为他们的脚都特别宽,而市面上的鞋太窄,他们穿不进去。于是他建议公司生产出专门适合这个岛国的鞋子。此外,他还把尺寸合适的鞋子送给当地的酋长,酋长一穿鞋,感觉舒服极了,而老百姓一看酋长都穿鞋了,他们也想穿。等到老百姓也想穿,就有市场了,原来都不穿鞋,现在人人都要穿鞋,于是乙推销员让鞋子很有销路。这个故事说明,数据只是现象和启发,只有深入的分析,才能再创性地挖掘机会。
以上就是数据的四个特征:时效性、分散性、概率性、再创性。
数据分析师了解数据的四个特征,对于我们的数据工作具有启发。例如,数据采集就要充分考虑到数据的这四个特征:
基于时效性,数据采集要有项目周期;
基于概率性,数据采集要有抽样设计;
基于分散性,针对不同的数据来源要有不同的采集方法和问卷设计
基于再创性,要对采集到的数据信息深入地分析和解读
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01在数据驱动决策的时代,企业与从业者每天都会面对海量数据——电商平台的用户行为数据、金融机构的信贷风险数据、快消品牌的营销 ...
2026-04-01在数字化转型的浪潮中,企业数据已从“辅助运营的附属资源”升级为“驱动增长的核心资产”,而一套科学、可落地的企业数据管理方 ...
2026-04-01在数字化时代,每一位用户与产品的交互都会留下可追溯的行为轨迹——电商用户的浏览、加购、下单,APP用户的注册、登录、功能使 ...
2026-03-31在日常数据统计、市场调研、学术分析等场景中,我们常常需要判断两个分类变量之间是否存在关联(如性别与消费偏好、产品类型与满 ...
2026-03-31在CDA(Certified Data Analyst)数据分析师的职场实战与认证考核中,“可解释性建模”是核心需求之一——企业决策中,不仅需要 ...
2026-03-31多层感知机(MLP,Multilayer Perceptron)作为深度学习中最基础、最经典的神经网络模型,其结构设计直接决定了模型的拟合能力、 ...
2026-03-30在TensorFlow深度学习实战中,数据集的加载与预处理是基础且关键的第一步。手动下载、解压、解析数据集不仅耗时费力,还容易出现 ...
2026-03-30