京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据的四个特征
最近的确有些忙,博客也荒芜了许久。很多博友问起我,怎么不见更新了?我心怀歉意。说实话,很久不写东东,我心里也感觉空空的。还是要继续写下去,承蒙大家关注,我没有理由懈怠。
今天我们聊点什么呢?
聊聊数据吧。我们总是在谈数据分析,那么到底什么是数据,数据有什么特征呢?这个问题虽基础却重要。
这里我们所说的数据,仅指应用于企业运营的市场信息。它是认识事物的中间环节,是事物的表面特征,其作用在于消除事物的不确定性。它至少具有以下四个基本特征。
一、时效性
所谓时效性是指数据的发生和运用要有个提前期,失去时效性,就失去了潜在机会。
举个例子,以前在广州有个大厦,它对数据的时效性运用的就很好。据说有一年,它的经理和别人聊天,人家无意间提起说那年春天广州的雨水将特别大,于是他特意去了广州气象台证实,证实后,他开始调查,发现深圳一家厂子里积压着20万多把雨伞。当时正是11月份,旱季,这家厂子压着20万多把雨伞早就想出手,所以这个大厦的经理就去了深圳,以极低的价格就把雨伞盘进来了。结果那年广州的春天来得特别早,一过春节,这雨哗哗就下起来了,他趁机20多万把雨伞往出卖,结果一销而空。这就是利用了信息的时效性。
简单吗?很简单,只需要到气象台问一下,但是,有多少企业会问呢?其实并不多,因为很多企业就没有提前获取数据的意识。经常是等到下雨了再进雨伞,那就没买卖做了。
数据要具有时效性,或者说数据分析要有预见性,因此,大家在采集数据的时候,要注意数据的时效性,要具备用现在的数据预测未来市场的走向的意识。
二、分散性
数据的分散性,具体表现在两个方面。
1、没有固定发生地
数据没有固定发生地,因此,需要多渠道采集数据,除了上网、图书馆查资料、还要留意电视、杂志等媒体的信息,关注统计局、行业协会、研究机构的数据或者直接做市场调研。
2、零散分布,相互关联才完整
数据是零散的,真正能还原数据的完整性,并充分利用数据的,都是勤于思考,努力寻找数据关联性的人。
在旧社会的解放区,人人都听到,河北省出了一个白毛仙姑,但是谁也没有去琢磨,当时只有20岁的贺敬之琢磨出来了:这叫做旧社会把人变成鬼,新社会把鬼变成人。于是他就写出了不朽的名著叫做《白毛女》,正可谓“人人之所见、人人所未思”。
三、概率性
什么是概率性?简单理解就是看似结果不确定的事情,多次重复,就会显示出一定的规律性。
比如我们抛硬币。抛5次、10次,到底有几次正面向上不好说,但若抛几百次,几千次,正面向上的可能性就稳定在50%左右。
有一个生产装汽水、装啤酒的塑料箱的小厂厂长,了解了数据的概率性,就把北京邮政编码本找来,找到北京130个单位,发了130封信,结果就回来1封,让他拿着样品过去看看,概率够低的。这个厂长怕别人搞不好,就自己夹着箱子去了。这家单位在4楼,厂长把箱子递过去,那老兄看都没看,一推窗户,‘磅’的一声,就给扔出去了。然后那老兄就往下跑,这厂长就在后面追,到了楼下,一看这箱子,一点没坏!那老兄说:“行!这箱子挺结实的,定货!”半年的买卖就有了。玩的就是概率。
数据的概率性告诉我们:成功=努力+等待。
四、再创性
所谓再创性是指我们所看到的数据只是一种现象和启示,不同的人会得出不同的结论。而要想透过现象看本质,需要用发展的眼光看问题,通过深入的分析,找出隐藏在市场现象背后的机会。
例如,二战后,松下幸之助开始研制一个非常不起眼的家庭用电机,好多人嘲笑他,说电机都是工厂用的,你这电机家庭干什么使呢。但是,松下幸之助看到了家用电机的发展,他说:‘现在是零,将来就是无限。’用发展的眼光看问题,才能再创性地挖掘机会。
再讲个故事:有甲、乙两个推销员,同时到非洲的一个岛国卖鞋子。这个岛国里人人都光着脚丫。甲推销员一见到他们都不穿鞋,于是认为鞋子在这里没有销路;而乙推销员将数据进行再创,看到他们不穿鞋,于是拿着鞋子来做调查,经调查发现:这里的人之所以不穿鞋,是因为他们的脚都特别宽,而市面上的鞋太窄,他们穿不进去。于是他建议公司生产出专门适合这个岛国的鞋子。此外,他还把尺寸合适的鞋子送给当地的酋长,酋长一穿鞋,感觉舒服极了,而老百姓一看酋长都穿鞋了,他们也想穿。等到老百姓也想穿,就有市场了,原来都不穿鞋,现在人人都要穿鞋,于是乙推销员让鞋子很有销路。这个故事说明,数据只是现象和启发,只有深入的分析,才能再创性地挖掘机会。
以上就是数据的四个特征:时效性、分散性、概率性、再创性。
了解数据的四个特征,对于我们的数据工作具有启发。例如,数据采集就要充分考虑到数据的这四个特征:
基于再创性,要对采集到的数据信息深入地分析和解读
数据除了这四个特征外,还有没有其他的特征?很想听听你的想法:
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16