京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据的商业机会在哪
近些年,大数据已经和云计算一样,成为时代的话题。大数据是怎么产生的,商业机会在哪?研究机会在哪?这个概念孕育着一个怎样的未来?
昨天在车库咖啡参加了一个小型的研讨活动,就这些问题进行了一些讨论,我结合自己的一些理解做一个总结。
首先,大数据是怎么产生的?
1)物理世界的信息大量数字化产生的
例如刘江老师指出的好大夫网,将医生的信息,门诊的信息等数字化。其实还有很多,比如新浪微博将茶馆聊天的行为(弱关系产生信息数字化),朋友聊天的行为数字化(强关系产生信息数字化)。视频监控探头将图像数字化。
2)社交网络产生的
在雅虎时代,大量的都是读操作,只有雅虎的编辑做一些写操作的工作。进入web2.0时代,用户数大量增加,用户主动提交了自己的行为。进入了社交时代,移动时代。大量移动终端设备的出现,用户不仅主动提交自己的行为,还和自己的社交圈进行了实时的互动,因此数据大量的产生出来,并且具有了极其强烈的传播性。
3)数据都要保存所产生的
一位嘉宾指出,旧金山大桥保留了百年的历史数据,在时间跨度上产生了价值,很多网站在早期对数据的重视程度不够,保存数据的代价很大,存储设备的价格昂贵,但是时代变了,存储设备便宜了,用户自己产生的数据得到了重视,数据的价值被重视了。因此越来越多的数据被持续保存。
其次,大数据和大规模数据的区别?
big data之前学术界叫very large data,大数据和大规模数据的差距是什么?我认为在英文中large的含义只是体积上的,而big的含义还包含重量上的,价值量上的。因此我认为:
1)大数据首先不是数量上的堆砌,而是具有很强的关联性结构性。
比如有一种数据,记录了世界上每一颗大树每年长高的程度,这样的数据不具有价值,因为只是简单堆砌。
如果数据变成,每一个大树记录它的,地点,气候条件,树种,树龄,周边动植物生态,每年长高的高度,那么这个数据就具有了结构性。具有结构性的数据首先具有极强的研究价值,其次极强的商业价值。
在比如,淘宝的数据,如果只记录一个交易的买家,卖家,成交物品,价格等信息,那么这个商业价值就很有限。淘宝包含了,买家间的社交关系,购物前后的其他行为,那么这个数据将非常有价值。
因此,只有立体的,结构性强的数据,才能叫大数据,才有价值,否则只能叫大规模数据。
2)大数据的规模一定要大,而且比大规模数据的规模还要大。
要做一些预测模型需要很多数据,训练语料,如果数据不够大,很多挖掘工作很难做,比如点击率预测。最直白的例子,如果你能知道一个用户的长期行踪数据,上网的行为,读操作和写操作。那么几乎可以对这个人进行非常精准的预测,各种推荐的工作都能做到很精准。
最后,大数据的机会在哪里?对小公司的机会在哪?
围绕数据的整个产业链上,我认为具有以下机会:
1)数据的获得
大量数据的获得,这个机会基本属于新浪微博等这类大企业,大量交易数据的获得,也基本属于京东,淘宝这类企业。小企业基本没机会独立得到这些用户数据。
2)数据的汇集
例如如果你要能把各大厂商,各大微博,政府各个部门的数据汇集全,这个机会将是极大的。
但,这个工作,做大了需要政府行为,做中档了,要企业间合作,做小了,也许就是一个联盟或者一个民间组织,比如中国爬盟。
3)数据的存储
汇集了数据后,立即遇到的问题就是存储,这个代价极大,原始数据不能删除,需要保留。因此提供存储设备的公司,执行存储这个角色的公司,都具有巨大的市场机会,但是这也不属于小公司,或者早期创业者。
4)数据的运算
在存储了数据以后,怎么把数据分发是个大问题,各种API,各种开放平台,都是将这些数据发射出去,提供后续的挖掘和分析工作,这个也需要有大资本投入,也不适合小公司。
5)数据的挖掘和分析
数据需要做增值服务,否则数据就没有价值,big也big不到哪里去,是没有价值的big.因此这种数据分析和挖掘工作具有巨大的价值,这个机会属于小公司,小团体。
6)数据的使用和消费
在数据做到了很好的挖掘和分析后,需要把这些结果应用在一个具体的场合上,来获得回报,做数据挖掘和分析的公司,必须得找到这些金主才行,而这些金主肯定也不是小公司。
大数据未来的形态,或者产业链结构一定是分层的,巨大的,价值的体现发生在各个层次,每个层次都是生态链的重要一环,都孕育着巨大的机遇和挑战,我们能做的唯有努力,做适合自己的工作。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12