京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据,重要的不是数据
“满城尽谈大数据”,但很多人其实并不理解大数据真正价值是什么,哈佛大学Gary King教授用3个大数据研究案例告诉你:有数据固然好,但是如果没有分析,数据的价值就没法体现。
2017年伊始,哈佛大学政治学系教授加里·金(Gary King)在上海交通大学举办了一场名为《大数据,重要的不是数据》(Big Data is Not About the Data)的讲座。
DT君先来介绍一下主讲人:Gary King是哈佛大学的校级教授(University Professor)。King教授以实证研究知名,擅长量化研究,其研究涉及政治学、公共政策、法学、心理学和统计学等领域。
以下是Gary King 教授演讲实录(有删节):
我工作的领域叫做量化社会科学(Quantitative Social Science),有时,它有一个别称,叫大数据。“大数据”这个词最早是媒体发现的,它试图向大众解释我们是做什么的,目前看来解释的效果还不错。
然而,大数据的价值不是在数据本身,虽然我们需要数据,数据很多时候只是伴随科技进步而产生的免费的副产品。比如说,学校为了让学生能更高效地注册而引进了注册系统,因而有了学生的很多信息,这些都是因为技术改进而产生的数据增量。
大数据的真正价值在于数据分析。数据是为了某种目的存在,目的可以变,我们可以通过数据来了解完全不同的东西……有数据固然好,但是如果没有分析,数据的价值就没法体现。
先来看一个大数据在公共政策层面运用的案例。
我们曾经做过一个评估研究,发现2000年以后美国社会保障管理总署(U.S. Social Security Administration,简称“SSA”)对于美国社保账户及人口寿命的预测有系统性偏差。
2000年以后SSA对社保基金账户情况的预测出现显著偏差
来源:Gary King论文
大背景是,美国的社会保障平台是美国最大的单一政府平台,它的资金是跨代流动的——当前退休者的养老金供给来自于他们的下一代,即现在工作的人交的税金。
所以SSA需要预测这个信托基金项目里的资金流,以及人的寿命,正确预测这两点很重要,如果人们比SSA预期的更长寿——虽然这是好事——就很可能导致信托基金里就没有足够的钱给他们养老了。
我们研究发现,SSA的预测在2000年以后出现了系统性偏差——发生偏差的原因之一,是SSA使用的模型本质上定性分析的模型,且多年来几乎没有调整。由于一些药物的使用和癌症早期发现,美国人开始比模型预测地更长寿了。
我们通过分析得出的结论是,美国社保信托基金至少存在8千亿美元的缺口。
虽然结论有点不幸,但是政府需要提前知道。这样政府就可以有空间在税率,退休年龄等方面进行调整。这是公共政策层面的话题。
关于定性分析和定量分析,其实不是泾渭分明的。做分析全靠定性分析(由人主导)是不够的,因为你有很多数据不知道该怎么处理。 全靠定量分析(由机器主导)也不行,这就像一张巨大的excel表,但是表中没有行、列的标签。所以,大数据分析需要的是由人主导,由计算机辅助的技术(we need computer-assisted, human-led technology)。
我们还做过一个计算机辅助阅读的实验。我们开发了一套计算机辅助、自动化阅读的技术,这项技术能帮助人们从非结构化的文字中提取、组织并且处理大量信息。
我们曾用该技术处理了64000篇国会议员官方发布的新闻稿,想通过这项基础帮我们作分类,看国会议员在新闻稿中都说了些什么。
结果我们发现,居然有高达27%的议员发布的新闻稿内容只是单纯地想抨击对方(Partisan Taunting),而不是想要平衡预算或停止战争,或解决问题。
(图片说明:Gary King表示,抨击对方政党从个人角度来看是理性的,但是从整个集群的角度来看,是非理性的,如果抨击对方的言语增多,政党之间的合作关系和能效会减弱;来源:Gary King研究成果单页 )
大数据时代,我们可以通过去量化过去不能量化的信息,使用精妙的统计学方法分析这些信息成为可能。
现在,我们都可以对一些强定性属性(inherently qualitative)的东西作定量分析了,如音频和视频。但是,目前仍有一些定性分析工作者要分析的内容还未被量化。所以,定性分析、定量分析要配合操作才行。
我参与过一个产品项目叫做Perusall。“Peruse”是仔细精读的意思,Perusall就是peruse + all,可以简单理解为大家一起读。
这个产品产生的背景是,大学教授会给同学布置阅读作业,但是教授很难评估学生是否阅读了规定的章节。如果有的学生没读而有的学生读了,这对整体课堂的授课效果会有影响。
Perusall的好处之一,是它把阅读从一个个体活动变成了一个集体活动。阅读文章的同学可以对自己看不懂的部分做批注,也可以对其他同学的批注作回复解答。这样更容易调动同学阅读的主动积极性,让阅读变得更有趣。人天生是社会动物,这也是为什么人们相比于在iTunes里听歌更愿意花钱去看演唱会,虽然前者音乐声音更清晰。
(图片说明:“学生困惑报告”样本;来源:哈佛官网 )
一旦学生用Perusall在线上阅读之后,我们就有了很多之前不可能互获取的数据:知道学生在读什么,他们对阅读内容的反馈怎样,他们在读每一页的时候花多少时间;当然,如果你没有读书的第46-47页,我们也会知道这个。
一方面,Perusall会基于每个学生的阅读情况和评价质量,对学生的这项阅读作业进行打分,从老师的层面看,这省去了原先阅读作业不易评估的问题。
另一方面,Perusall会分析这些阅读数据,知道学生们读到哪里时觉得困惑。
Perusall可以在老师上课前生成一个“学生困惑报告”(Students confusion report)。拿到这份报告,我就可以在一走进课堂时说,“根据你们的阅读情况,你们可能有以下三个问题。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02