
大数据推动社会科学研究深挖潜力(2)_数据分析师
例如,社会分层是当代社会科学领域的重要概念。基于抽样调查数据的大量经验研究表明,主观社会地位受到客观社会地位以及相对参照群体的决定性影响。同时,跨国研究也表明,经济不平等对人们的自我阶层定位也有影响。新近利用大数据的研究则基于谷歌图书语料库811万本英语书籍、8000亿个单词的大数据,提取计算了一百年来美国书籍中阶级词汇的出现频率,以此来测量美国公众对阶层的关注程度。而对阶层关注度和美国社会百年失业率、通货膨胀、基尼系数等指标的格兰杰时间序列分析表明,在市场经济发达的美国,代表通货膨胀率和失业率之和的“经济悲惨指数”(Economic Misery)影响着阶层关注度,而基尼系数却没有统计显著的影响。这意味着,不平等对于阶层意识的作用很可能存在一种阀域效应:当社会不平等高于一定的阀值时,不平等才会对阶层意识产生作用;而当低于阀值时,是经济景气程度在影响着阶层关注度。
或缓解定量与定性之间的分歧
定量研究与定性研究是两种不同取向的研究策略,其背后蕴含着本体论、认识论和方法论上的差异。定量研究者和定性研究者常常相互指责对方的局限性,然而大数据的出现为他们提供的数据规模和全新的数据特征,在某种程度上可能会缓解分歧,甚至重构两者的关系。对定性研究者而言,大数据可以通过海量规模的样本直接展示和发现出社会现象的规律,既不需要控制变量来检验关联,更避免了定性方法在案例选择方面的样本偏差。此外,大数据可以为定性研究提供既全新又不会过于复杂的研究思维,让检索和数据描述等方法得到普遍应用。
对于定量研究者而言,目前的可用大数据往往并非专门为回归分析而设计,因此依据大数据很难进行传统意义上的回归分析和因果推断。但由于数据的海量甚至全样本的性质,一旦把基于大数据的简单关联分析或时间序列分析结果与文献中的传统回归分析进行比对,就能形成具有说服力的证据链。同时,大数据也把定量研究者的关注视野进一步开阔,从传统的定量分析领域向以往较少触及的文化现象、心理现象等领域拓展,并重新审视“描述”在定量分析中的地位。从某种意义上讲,大数据的使用使得定性和定量之间出现一个混合地带。可以预见,以描述和简单回归分析的大数据研究,将进一步融合定性定量方法的鸿沟。
为学科融合提供机遇
近代科学在理性化的指引下不断提升着专业化程度,以至于不同学科之间形成了鲜明的边界。尽管这种进程大大提高了研究效率和学术领域内的交流评估质量,但也逐渐形成了各自为政的不足。研究者在获得相当的深度的同时,往往失去了对广度的把握,并且学科边界之间形成了许多空白地带。而大数据则为学科融合提供了难得的机遇。这主要是因为,大数据的获取和分析,往往需要有别于传统社会科学训练的方法和工具。这使得原本在计算机、人工智能甚至物理、数学等领域具有专长的学者,在有意无意中不断参与到社会现象的分析队伍中来。实际上,自然科学家转型为社会科学家并非前所未有,如小世界网络研究者邓肯·瓦兹原先就是物理学家。随着大数据的出现,这样的转型案例可能会大大增多。近两年来,发表在英文刊物上的基于谷歌图书、维基百科等大数据的语言学、经济学研究论文,大多数都有计算机和自然科学家加入作者的行列。此外,由于大数据为社会科学提供了全新的分析对象,交叉学科的重要性也越来越被认识。“计算社会科学”、“应用计算科学”的方兴未艾就是典型的案例。
社会科学或出现“重返描述”潮流
当代社会科学尤其是定量分析致力于进行因果推断、提供机制性解释。由于社会人的异质性,基于非实验数据的定量分析很难避免内生性问题(遗漏变量、样本偏误、联立性等问题)。目前,社会科学研究者通过固定效应模型、倾向性匹配、工具变量等方法来加以解决以改进因果推断。从现存可用来进行社会科学分析的大数据看,它所能提供的变量有限,因此社会科学研究者很难通过大数据进行变量控制来进行传统的因果推断。然而,大数据的出现对于学术目标的进一步丰富和发展却无疑是深远的。首先,基于信息技术而兴起的大数据扩展了人类的经验范围,从而使得简单的统计描述就可以达到发现规律、展示规律的目的。这使得人们有可能凭借大数据而提出理论,而不仅仅是利用抽样数据对传统理论和假说进行证伪。其次,大数据的信息具有在时空上传统抽样数据所无法比拟的广度和深度。在大数据时代,社会科学尤其是定量社会科学可能在一定程度上将不再单纯以进行反事实因果推断、探求机制性解释为主要学科发展目标,而是出现一种“重返描述”的潮流。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15