京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据的价值之路&数据价值之路的几个里程碑
大数据的4V并不在一个层面
讲起大数据,首先的印象就是《大数据时代》这本书中的提出的4V, 海量的数据规模(volume)、快速的数据流转和动态的数据体系(velocity)、多样的数据类型(variety)和巨大的数据价值(value)。
前三个V直接描述了数据本身的特征, 大数据业界无数的公司推出了各种存储和数据处理的解决方案以应对大数据带来的技术挑战, 初期的淘金者赚的盆满钵溢,留下了大量存满数据的机房。可是说好的价值呢?
最后一个V实现的并不理想。
以业界最为闻名遐迩的Palantir公司为例,他的founder是大名鼎鼎的硅谷投资创业教父,paypal创始人彼得.蒂尔。它第一个客户和最大的客户是美国中央情报局CIA,协助反恐。据说正是依靠他们的协助,CIA找到了本拉登的踪迹。Palantir 为此声名大噪。其最新一轮融资4.5亿美元,公司估值在200亿美元,是仅次于uber, airbnb和小米的创业公司。
可是最近的一些爆料Palantir的一系列问题。去年有至少3个重要客户终止了合同,包括可口可乐,america express, 和纳斯达克。这些客户一方面抱怨公司收费太高,会高达100万美元每个月,感觉远远不值得。而且客户和公司的年轻工程师合作起来非常头疼。
Palantir公司上次宣布去年全年的“预约价值”是17亿美元,但是实际上最后的收入只有4.5亿美元。预约价值是客户可能要支付的费用,包括很多试用期,免费用户的合同价值。这两个数据的巨大差距说明很少一部分客户最后变成了付费用户。
Palantir公司情况恰恰彰显了大数据巨大数据价值获取并不容易。
大数据中的确隐藏着大量价值,但价值的实现不在于数据分析本身,而在于数据与业务场景的碰撞。
Palantir的数据实践中面临的几个问题:
1.数据的价值和行业场景紧密相关, Palantir擅长抓坏人, 通过大量的数据关联,发现业务中的异常,进而通过异常的控制实现数据的价值, 这样的场景在安全,金融等领域比较适合, 但当推广到其它场景的时候,效果往往差强人意。深度行业场景的介入往往需要对行业的深度介入, 成本高, 周期长。
2.数据及分析人员本身也是成本, 大数据获取成本, 数据科学家的高额成本,分析工作失败的机会成本,还有数据价值的体现程度。这些都对大数据项目产生直接影响, 这些成本与价值比能否控制在一定范围,长期看来,成本是否有线性下降的预期也是企业决策关键因素。
3.工程师的技能与思维能力,数据科学家培养及留住不易, 年轻工程师的培养,学习曲线和成本都是需要考虑的点。
数据价值之路的几个里程碑
Gartner有一个非常简单和清晰的数据分析和难度的划分模式从数据分析的难度到数据价值的实现给出了4个层面的定义。这四个层面的定义也非常适合被看作是我们数据价值探索上的4个里程碑。
•描述(Descriptive),解决什么发生的分析,是相对简单的分析。 描述性的分析通常需要把大数据沉淀成为更小的,更高价值的信息,通过汇总来对一个已经发生了事件的提供洞察和报告。
•诊断(Diagnostic),在事件数据描述的基础上, 提供对原因的深度分析, 通常需要更多维度的数据, 更长时间的数据跨度, 通过关联分析发现事件与数据之间的关联关系。
•预测(Predictive),预测性分析通过一系列的统计,建模,数据挖掘和机器学习等技术来学习近期和历史数据, 帮助分析师对未来做一定的预测。
•规范分析(Prescriptive),规范性分析突破了分析并扩展到执行阶段, 结合了预测,部署, 规则,多重预测,评分,执行和优化规则, 最终形成一个闭环的决策管理能力。
过去的实践表明,75%以上的数据分析场景是描述性的分析,大部分企业已经建立的数据仓库和BI系统都可以归于这一场景,日常运营报告,运营仪表盘, 驾驶指挥舱等都属于这一类的应用的实现。 诊断和预测类分析应用则更多使用在推荐, 运营异常分析等特定场景中, 使用的范围较小, 效果参差不齐。而规范分析的场景直接打通了分析与执行,目前主要是体现在自动驾驶, 机器人等更为特定业务场景中。在商业环境中, 数据的价值需要的不仅仅是分析, 真正的价值是通过数据分析后的业务决策和业务执行获得的。
笔者用下面的这张图来描绘数据的价值之路, 越是向右,数据体现的业务价值指数越高, 体现的业务价值越高。
图中浅绿和深绿的部分是大量的人工参与过程, 帮助对前面数据分析的过程和结果进行进一步的人工处理和加工。在过去IT主导的时代这两个部分往往由IT部门承担,被业务需求驱动,实施的效果不好,还往往成为业务部门诟病的对象。大数据时代,业务部门深度参与,逐渐成为数据的主要使用者和创新者,通过数据分析,业务人员解读,丰富,判断,决策,并最终完成执行的闭环,实现数据的价值化。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27