京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据!然后呢?厚数据时代的来临
大数据(Big Data)热潮是这几年产业界最夯的趋势话题,网路社群媒体的兴起,更推波助澜这股热潮,以为买了网路社群的大数据资料,就可以掌握消费者行为脉动,让行销活动无往不利,仿佛市场立即化作可取予求的宝山,这股数据掏金热让政府及许多企业趋之若鹜,纷纷投注资源于社群媒体的搜集与购买,幻想着抢先一步从中淘筛出最大的黄金。
但,大数据真的是这样吗?
将排山倒海的社群媒体资讯导入企业决策者们的电脑中,希望从琳琅满目真假难分的数据中,找出一条能带领企业脱离困境轻松获利的康庄大道;却发现原本想用来解决问题的大数据,创造了一个满是数字迷魂阵,一头栽进去很能找得到出口。
其实大数据的应用,着眼点并不在「大」量的数据,而是在「人」如何看待数据和让数据说话。
真正有用的数据不一定要花大钱从外部购买,毕竟买回来还要花大量的力气去阅读消化,还不如先从公司内部累积的精准数据和经验着手,看能不能重新找出正确的分析观点来解决问题。
先从小而准的数据开始
在进行数据分析时,数据准确度的重要性比数据量的大小重要,我们可以依数据性质分为三类:小而准(Small and accurate data)、大而乱(big and messy data)、开放数据(opendata)。
其中,小而准的数据如公司内部POS 交易数据,准确而清楚;大而乱的数据则像是从网路社群媒体抓下来的数据,还需要结构化统计整理出意义;开放数据像是天气、人口普查之类,则可以从政府机关的资料库提取。
在资料进行分析之前,我们都必须先思考我们面临的问题是什么?从问题中思考解决的方案,提出观点,再从资料分析中佐证。数据量越大,不确定性越高,所需要进行分析或排除的手续也相对较多,若我们能用小而准的数据进行分析比对,发现问题想出解决方法,一定会比从大而乱的资讯中找答案来得省时省力。
大数据时代,竞争的是解决问题与决策反应效率
一般大数据的特性, 大家耳熟能详的多半是四个V: 数量大(Volume)、速度快(Velocity)、多样性(Variety)、和不确定性(Veracity),但大数据存在的重要意义,也就是第五个V—价值(Value)却常常被人遗忘。
行销专家指出,前面四个V 都是在描绘大数据的样貌轮廓,第五个V 则是提醒,大数据需经过清算整理后,才能够为行销人或决策者带来贡献。所以大数据的使用重点,绝非资料量多大或资料取得管道多么特殊,而是资料创造多少价值。
用一般精准的小数据就能解决的问题,何须大费周章投入大量资源和成本相对较高的大数据?人们往往被大数据字面上的「大」所误导,以为数据量就是要大才会有效,殊不知关键是数据必须能够被衡量掌控,以小而准的数据为基础,视情况进行不同类型的数据之间相乘与重组,才是明智的大数据抉择。
能否用大数据的观念,将手边的数据迅速的转化成正确决策与行,比「快」还要比「准」,将是大数据时代接下来的重要课题。
大数据之后,厚数据(Thick Data)时代的来临…
「数字会说话」或许是大数据时代最常听到的口号,但美国当代统计预测鬼才奈特席佛(Nate Sliver)提醒我们:「数字没办法为自己说话,是我们在为它们说话,我们赋予它们意义。我们可能会用对自己有利的方式来解释资料,让资料脱离客观的现实。 」
大数据,不是单纯以数据多寡或来源来决胜负,而是要依靠「人」根据数据的结合与交叉比对形成的「判断」或「预测」准确与否来决胜。尤其在行销领域中,大数据大部分都是在处理与人有关的数据,而不是没有生命的物质。大数据行销背后代表的,是人的行为模式与需求,因此不能单纯只靠数字或统计来做判断的依据,必须更深入地思考品牌、商品和人之间的关系,而这样的思维将会是下一个厚数据(Thick Data)时代的开端。
所谓的厚数据与强调数据规模的大数据不同,厚数据更重视人和产品或产业数据间的深度与情境,好的数据观点,也往往是从厚数据产生,而非大数据。厚数据强调深入使用者情境,需要厚实的产业知识或经验为底,透过厚数据,将产业产品与消费者做更紧密的连结。
未来的大趋势,若只单纯从现有的大数据发现和判断,过度信任数字呈现结果,将很有可能造成误判。若能透过深入使用情境,探知自消费者需求影响而成的未来产业发展趋势,方能展现厚数据的重要价值。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01