京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据最重要的不是数据本身,而是数据分析
大数据的价值不是在数据本身,虽然我们需要数据,数据很多时候只是伴随科技进步而产生的免费的副产品。大数据时代,我们可以通过去量化过去不能量化的信息,使用精妙的统计学方法分析这些信息成为可能。
“满城尽谈
”,但很多人其实并不理解大数据真正价值是什么,哈佛大学GaryKing教授用3个大数据研究案例告诉你:有数据固然好,但是如果没有分析,数据的价值就没法体现。
以下是Gary King教授演讲实录(有删节):
工作的领域叫做量化社会科学(QuantitativeSocialScience),有时,它有一个别称,叫大数据。“大数据”这个词最早是媒体发现的,它试图向大众解释我们是做什么的,目前看来解释的效果还不错。
然而,大数据的价值不是在数据本身,虽然我们需要数据,数据很多时候只是伴随科技进步而产生的免费的副产品。比如说,学校为了让学生能更高效地注册而引进了注册系统,因而有了学生的很多信息,这些都是因为技术改进而产生的数据增量。
大数据的真正价值在于
。数据是为了某种目的存在,目的可以变,我们可以通过数据来了解完全不同的东西……有数据固然好,但是如果没有分析,数据的价值就没法体现。
先来看一个大数据在公共政策层面运用的案例。
我们曾经做过一个评估研究,发现2000年以后美国社会保障管理总署(U.S.Social Security Administration,简称“SSA”)对于美国社保账户及人口寿命的预测有系统性偏差。
(图片说明:2000年以后SSA对社保基金账户情况的预测出现显著偏差;来源:GaryKing论文)
大背景是,美国的社会保障平台是美国最大的单一政府平台,它的资金是跨代流动的——当前退休者的养老金供给来自于他们的下一代,即现在工作的人交的税金。
所以SSA需要预测这个信托基金项目里的资金流,以及人的寿命,正确预测这两点很重要,如果人们比SSA预期的更长寿——虽然这是好事——就很可能导致信托基金里就没有足够的钱给他们养老了。
我们研究发现,SSA的预测在2000年以后出现了系统性偏差——发生偏差的原因之一,是SSA使用的模型本质上定性分析的模型,且多年来几乎没有调整。由于一些药物的使用和癌症早期发现,美国人开始比模型预测地更长寿了。
我们通过分析得出的结论是,美国社保信托基金至少存在8千亿美元的缺口。
虽然结论有点不幸,但是政府需要提前知道。这样政府就可以有空间在税率,退休年龄等方面进行调整。这是公共政策层面的话题。
关于定性分析和定量分析,其实不是泾渭分明的。做分析全靠定性分析(由人主导)是不够的,因为你有很多数据不知道该怎么处理。全靠定量分析(由机器主导)也不行,这就像一张巨大的excel表,但是表中没有行、列的标签。所以,大数据分析需要的是由人主导,由计算机辅助的技术(weneedcomputer-assisted,human-ledtechnology)。
我们还做过一个计算机辅助阅读的实验。我们开发了一套计算机辅助、自动化阅读的技术,这项技术能帮助人们从非结构化的文字中提取、组织并且处理大量信息。
我们曾用该技术处理了64000篇国会议员官方发布的新闻稿,想通过这项基础帮我们作分类,看国会议员在新闻稿中都说了些什么。
结果我们发现,居然有高达27%的议员发布的新闻稿内容只是单纯地想抨击对方(PartisanTaunting),而不是想要平衡预算或停止战争,或解决问题。
(图片说明:GaryKing表示,抨击对方政党从个人角度来看是理性的,但是从整个集群的角度来看,是非理性的,如果抨击对方的言语增多,政党之间的合作关系和能效会减弱;来源:GaryKing研究成果单页)
大数据时代,我们可以通过去量化过去不能量化的信息,使用精妙的统计学方法分析这些信息成为可能。
现在,我们都可以对一些强定性属性(inherentlyqualitative)的东西作定量分析了,如音频和视频。但是,目前仍有一些定性分析工作者要分析的内容还未被量化。所以,定性分析、定量分析要配合操作才行。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02