京公网安备 11010802034615号
经营许可证编号:京B2-20210330
解读《大数据时代》:复杂世界的数据观_数据分析师
《大数据时代》给出的大数据时代的第二个特征,是“不是精准性,而是混杂性”。这是一个相当难以理解的分割方式。虽然看一个个的案例,读者似乎明白了,可是放下书,却又疑上心头:为什么大数据时代不要精准性?精准性与混杂性之间有必然的对立关系吗?
如果说第一个特征中的“随机样本”和“全体数据”(记得实际是数据库的概念)的概念我们还能够从迈尔大叔的叙述中得以澄清,这里的“精准性”和“混杂性”就要认真考证了。
何为精准性?
迈尔大叔有关精准性的论断,应该是对小数据时代数据匮乏的藐视:你们这帮屌丝,撅着屁股捡钢镚,俺们土豪100元从来都不要找零的!小数据时代数据少啊,每个数据都当个宝,斤斤计较数据的精度。
“执迷于精确性是信息缺乏时代和模拟时代的产物。在那个信息贫乏的时代,任意一个数据点的测量情况都对结果至关重要。所以,我们需要确保每个数据的精确性,才不会导致分析结果的偏差。”
我们来看看迈尔大叔提供的有关精准度的案列,后面讨论用得着。
1)量子力学的”测不准“原理;(测不准即不精准,可这和大数据时代哪是哪儿呀?)
2)桥梁压力检测数字增加1000倍,错误率也会增加;(怀疑“错误率”是“错误数”的表达错误。错误率是错误的比例吗?如果错误率随着数据数量的增加而增加,那大数据还会准确吗?或许我真的被大数据时代OUT了。)
3)语音识别呼叫中心投诉的错误;(终于能够理解一个案例了!)
4)葡萄园N个温度计测量温度;(这是通过统计增强精准度。)
5)Forrester认为“有时得到2加2约等于3.9的结果,也很不错了。”(没有背景资料,不敢妄加判断。不过总觉得心悬悬的,你是否担心生活在一个“2加2可以约等于3.9”的社会里呢?)
6)微软研究中心寻求改进Word程序中语法检查的方法;(这是利用大数据来改进分析的精准性!)
7)BP炼油厂无线感应器网络数据;(又是一个大数据降低统计误差的案例。)
8)Facebook上的“4000个赞”和Gmail“2小时”计时;(神一般的大数据及其不精准性说明。)
9)Hadoop与Visa的算法。(这是一个如何牺牲分析结果的精准性以缩短所需分析时间的案例。回到迈尔大叔有关大数据时代的第一个特征,即使有了全体数据,必要时也要牺牲部分数据而争取时间。)
到此,可能能够理解为什么读这一小节这么困难了:迈尔大叔想告诉我们精准性不重要,可是他举的例子,却实在是有点“暧昧”不清。他究竟是想说数据的精准性还是数据分析结果的精准性呢?
何为混杂性?
“不是精准性,而是混杂性”。与混杂性所对立的精准性,原来不是迈尔大叔在描述精准性时以“2+2可以约等于3.9”时告诉我们的那个数据分析结果的精准性,而是数据的精准性。
“执迷于精确性是信息缺乏时代和模拟时代的产物。只有5%的数据是结构化且能适用于传统数据库的。如果不接受混乱,剩下95%的非结构化数据都无法被利用,只有接受不精确性,我们才能打开一扇从未涉足的世界的窗户。”
我们看到,在谈到大数据时代的混杂性时,迈尔大叔基本上都在谈论数据的混杂性(而不是数据的不精准性)。我们来看看混杂性的案例:1)对IBM称呼的混杂;2)谷歌翻译语料库;3)MIT研究项目;4)Flicker图片标签;5)新的数据库设计;6)ZestFinance。
说实在话,有关大数据时代混杂性的问题,因为有了前面对精准性的描述,一下子还真是被迈尔大叔给蒙住了,反复读了数遍,才理解。原来迈尔大叔所说的混杂性,是指数据格式的不统一。上面6个案例中,除ZestFinance外,基本上是讲数据格式的不统一或者数据来源纷杂。这的确是我们这个时代数据的特征。恭喜迈尔大叔终于说对了!
而ZestFinance则是指在数据不完整或者数据有错误的情况下如何处理数据的问题,这和大数据似乎没有太大的关系,与数据的混杂性也没关系。不过我们在此回忆一下,似乎除了随机样本问题外,迈尔大叔几乎不谈数据统计的技术细节。比如说,ZestFinance是如何处理数据缺失以及数据错误的呢?我真的很好奇。
精准性与混杂性的辩证
一般来说,“不是....。.而是....。.”的语句,应该是指同一事物的不同状态。比如“不是晴天而是下雨”,或者“不是田埂而是小溪”。如果你来一句“不是晴天而是小溪”,就显得难以理解了。
就统计学角度来看,数据的精准性是一回事,数据的不同格式(混杂性)是另一回事。格式混杂的数据,通过处理或许是能够精准的。
格式混杂的对立面是数据格式的统一。格式统一的数据或许可能也是不精准的。比如说迈尔大叔所列举的葡萄园测量温度以及BP炼油厂的感应数据。
另一方面,就精准性而言,数据的精准与数据分析结果的精准也是两个不同的概念。比如说,“2+2约等于3.9”是数据分析结果的不精准,而葡萄园温度测量和BP炼油厂的无线感应器网络数据的例子,则是指数据不精准但是因为数据多而克服了少量数据不精准的缺陷而使数据分析结果比较精准。
数据格式的混杂与统一,数据的精准与数据分析结果的精准,迈尔大叔都胡子眉毛一把抓了。
怎么理解大数据时代是十分重要的。大数据时代的特征是“一切皆为数据”,那么数据来源的多样性以及数据格式的混杂性确实成为一个大数据时代显著的特征。但是,这个特征的对立面,可能更应该是数据来源以及数据格式的单一性。
数据的混杂性需要更成熟的分析手段来分析,分析的结果也可能不像我们传统的那样丁是丁卯是卯。但这些应该是数据分析师的工作,而不是我们这样的屌丝们所需掌握的本领。
或许,我们可能更应该从屌丝的角度来归纳大数据时代的特征。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07