京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据的四大特征_大数据
我们总是在谈数据分析,数据分析什么的,那我们现在先不谈数据分析,我们先来谈谈数据分析的基础——数据。那么到底什么是数据,数据有什么特征呢?这个问题虽基础却重要。
这里我们所说的数据,仅指应用于企业运营的市场信息。它是认识事物的中间环节,是事物的表面特征,其作用在于消除事物的不确定性。它至少具有以下四个基本特征。
所谓时效性是指数据的发生和运用要有个提前期,失去时效性,就失去了潜在机会。
举个例子,以前在广州有个大厦,它对数据的时效性运用的就很好。据说有一年,它的经理和别人聊天,人家无意间提起说那年春天广州的雨水将特别大,于是他特意去了广州气象台证实,证实后,他开始调查,发现深圳一家厂子里积压着20万多把雨伞。当时正是11月份,旱季,这家厂子压着20万多把雨伞早就想出手,所以这个大厦的经理就去了深圳,以极低的价格就把雨伞盘进来了。结果那年广州的春天来得特别早,一过春节,这雨哗哗就下起来了,他趁机20多万把雨伞往出卖,结果一销而空。这就是利用了信息的时效性。
简单吗?很简单,只需要到气象台问一下,但是,有多少企业会问呢?其实并不多,因为很多企业就没有提前获取数据的意识。经常是等到下雨了再进雨伞,那就没买卖做了。
数据要具有时效性,或者说数据分析要有预见性,因此,大家在采集数据的时候,要注意数据的时效性,要具备用现在的数据预测未来市场的走向的意识。
数据分析师分析数据的特征之二分散性
数据的分散性,具体表现在两个方面。
1、没有固定发生地
数据没有固定发生地,因此,需要多渠道采集数据,除了上网、图书馆查资料、还要留意电视、杂志等媒体的信息,关注统计局、行业协会、研究机构的数据或者直接做市场调研。
2、零散分布,相互关联才完整
数据是零散的,真正能还原数据的完整性,并充分利用数据的,都是勤于思考,努力寻找数据关联性的人。
在旧社会的解放区,人人都听到,河北省出了一个白毛仙姑,但是谁也没有去琢磨,当时只有20岁的贺敬之琢磨出来了:这叫做旧社会把人变成鬼,新社会把鬼变成人。于是他就写出了不朽的名著叫做《白毛女》,正可谓“人人之所见、人人所未思”。
数据分析师分析数据的特征之三概率性
什么是概率性?简单理解就是看似结果不确定的事情,多次重复,就会显示出一定的规律性。
比如我们抛硬币。抛5次、10次,到底有几次正面向上不好说,但若抛几百次,几千次,正面向上的可能性就稳定在50%左右。
有一个生产装汽水、装啤酒的塑料箱的小厂厂长,了解了数据的概率性,就把北京邮政编码本找来,找到北京130个单位,发了130封信,结果就回来1封,让他拿着样品过去看看,概率够低的。这个厂长怕别人搞不好,就自己夹着箱子去了。这家单位在4楼,厂长把箱子递过去,那老兄看都没看,一推窗户,‘磅’的一声,就给扔出去了。然后那老兄就往下跑,这厂长就在后面追,到了楼下,一看这箱子,一点没坏!那老兄说:“行!这箱子挺结实的,定货!”半年的买卖就有了。玩的就是概率。
数据的概率性告诉我们:成功=努力+等待。
所谓再创性是指我们所看到的数据只是一种现象和启示,不同的人会得出不同的结论。而要想透过现象看本质,需要用发展的眼光看问题,通过深入的分析,找出隐藏在市场现象背后的机会。
例如,二战后,松下幸之助开始研制一个非常不起眼的家庭用电机,好多人嘲笑他,说电机都是工厂用的,你这电机家庭干什么使呢。但是,松下幸之助看到了家用电机的发展,他说:‘现在是零,将来就是无限。’用发展的眼光看问题,才能再创性地挖掘机会。
再讲个故事:有甲、乙两个推销员,同时到非洲的一个岛国卖鞋子。这个岛国里人人都光着脚丫。甲推销员一见到他们都不穿鞋,于是认为鞋子在这里没有销路;而乙推销员将数据进行再创,看到他们不穿鞋,于是拿着鞋子来做调查,经调查发现:这里的人之所以不穿鞋,是因为他们的脚都特别宽,而市面上的鞋太窄,他们穿不进去。于是他建议公司生产出专门适合这个岛国的鞋子。此外,他还把尺寸合适的鞋子送给当地的酋长,酋长一穿鞋,感觉舒服极了,而老百姓一看酋长都穿鞋了,他们也想穿。等到老百姓也想穿,就有市场了,原来都不穿鞋,现在人人都要穿鞋,于是乙推销员让鞋子很有销路。这个故事说明,数据只是现象和启发,只有深入的分析,才能再创性地挖掘机会。
以上就是数据的四个特征:时效性、分散性、概率性、再创性。
数据分析师了解数据的四个特征,对于我们的数据工作具有启发。例如,数据采集就要充分考虑到数据的这四个特征:
基于时效性,数据采集要有项目周期;
基于概率性,数据采集要有抽样设计;
基于分散性,针对不同的数据来源要有不同的采集方法和问卷设计
基于再创性,要对采集到的数据信息深入地分析和解读
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据可视化领域,单一图表往往难以承载多维度信息 —— 力导向图擅长展现节点间的关联结构与空间分布,却无法直观呈现 “流量 ...
2025-10-27这个问题问到了 Tableau 中两个核心行级函数的经典组合,理解它能帮你快速实现 “相对位置占比” 的分析需求。“index ()/size ( ...
2025-10-27对 CDA(Certified Data Analyst)数据分析师而言,“假设检验” 绝非 “套用统计公式的机械操作”,而是 “将模糊的业务猜想转 ...
2025-10-27在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17