
真实和完备是大数据分析的基础
随着大数据时代的到来,网络数据的真实性问题日益受到关注。相较以抽样调查为主的小数据时代,在大数据时代,如何进行正确的数据清洗和数据分析,以便从海量信息源中获取真实而有价值的信息内容,并生成指向性清晰的决策指导,成为哲学社会科学界和自然科学界共同面临的课题。
数据来源:确保具备大数据品质
在中国人民大学新闻学院教授喻国明看来,高品质数据来源是确保大数据分析真实、可靠的首要条件。“根据国内外的相关技术发展情况分析,当前比较权威、可靠的大数据来源主要有两个,一是掌握多方面的社会运行数据的政府部门,二是在某一领域拥有数据采集能力的大型公司,如数字移动、网购、社交媒体、搜索引擎、输入法软件等公司。”
喻国明认为,大数据时代的一个重要特点,就是全方位、立体式的数据分析成为可能。“不过,单个部门或企业所掌握的大数据往往类别单一,对其的分析结论难免陷于零散、维度单一。”另外,从严格意义上讲,大数据不是政府、企业的“私有财产”,它与社会个体的权利和隐私密切相关,应当属于全社会。
那么,目前民间进行的大数据分析“靠谱”吗?上海交通大学舆情研究实验室主任谢耕耘介绍,如果对大数据来源进行分类,可以分为政府、大企业的定点监测,以及民间依靠软件等技术手段的数据挖掘。对此,喻国明这样评价:相对于政府部门与大型网络企业的大数据采集能力,仅仅从信息海洋中简单挖掘、捞取的部分所谓的“大数据”,远远不具备真正的大数据品质。
北京邮电大学互联网治理与法律研究中心主任李欲晓更愿意将大数据分析结果看作一种数据产品。“衡量其价值,关键在于它是否面向特定客户群提供了所需数据产品类型。”目前,社会各界已经意识到大数据时代的到来,许多机构和个人也在积极开发相关软件和产品,这个过程的最大价值,便是提升了全社会的大数据处理能力。
数据分类:建立更多有效标签
谢耕耘认为,通过搜索引擎的分析软件进行数据挖掘,是当前许多民间研究机构获取所谓“大数据”的主要途径。目前,付之应用的诸如“爬虫”等大数据挖掘软件,其作用是非常有限的——往往在只挖掘到几千条数据时,就被相关网络平台为防止机器人挖掘而设置的障碍所拦截,并被要求反复输入验证码。“因此,这种依靠软件来执行的数据挖掘方式,往往需要数十台、上百台服务器,以及高容量的带宽和大量的IP地址。”其挖掘所获得的大数据,通常是局部的、不完整的,难以推断整体状况。
从这个意义上看,尽管目前从事大数据分析的人力、机构很多,但真正做出可信服的研究成果的团队并不多。在李欲晓看来,当前的大数据分析尚未成熟,仍处于“成长期”。
喻国明认为,大数据由不同数据集构成,若想全面、立体式反映某一个体、事物、事件,其关键在于对不同数据集进行关联分析,而关联分析的前提是建立标签。“对每一个数据文本做标签,就像图书分类一样。几十万册的图书,有了分类,才能够有序管理。面对大数据的海量信息,有了标签,就可以轻松找出需要的信息。”尽管不可能存在一个100%包容性的大数据库,但对数据进行快速、有效的处理与整合,无疑能为未来深入、真实、可靠的分析夯实基础。
“有些标签是自然形成的。例如,通过社交媒体的个人资料,就可以轻松分出年龄、性别、职业等不同标签。还有一些标签,则要通过网络行为分析才能认定。例如,在分析个人言论的社会特征时,可根据网络发言使用的词频、语义进行计算,并依此为网民贴上早起群体、晚睡群体,时尚型消费者、保守型消费者,高收入者、低收入者等标签。”喻国明认为,在大数据时代,一个文本碎片被打上的有效标签越多,其可被利用的价值越大。
数据分析:以小数据为“校准”
中国社会科学院新闻与传播研究所研究员姜飞做了一个有趣的比喻,“在大数据时代,数据信息好比货币,要像研究货币一样研究信息数据。”在他看来,“信息货币”一旦不可信,也容易发生“金融危机”;要提高大数据分析的可信度,就要找到一个“校对的准绳”。
喻国明认为,传统的抽样调查在发布结论时,需同时公布调查是否遵守了“21条规则”(包括数据来源、调查方法、资助者等),以保证调查报告不会产生误导。未来,大数据分析也应该同步公布数据来源、数据量、数据截取的时间区间等有关数据品质的指标。“如果数据来源是通过‘爬取’软件获取,那么公布‘爬取’量有多大,可以在一定程度上帮助受众判断数据分析的真实度、可信度。”
另外,尽管小数据是小范围的、片段的,但它有一个核心价值,即能够提供准确的结构性分析,拥有可靠的统计学价值。喻国明表示,“大数据虽然信息丰满,但整体构造难以看清,因此,小数据能够成为大数据判断结构性位置的校标。”
李欲晓还表示,大数据时代来势迅猛,关涉企业社会责任、个人社会规范等方面的法律法规正在完善。未来,在数据来源、数据分析、结论校准等方面,应陆续出台相关的法律法规和学术规范,以保障大数据在国家治理中发挥更大作用。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08在商业竞争日益激烈的当下,“用数据说话” 已从企业的 “加分项” 变为 “生存必需”。然而,零散的数据分析无法持续为业务赋能 ...
2025-09-08随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05CDA 数据分析师:以六大分析方法构建数据驱动业务的核心能力 在数据驱动决策成为企业共识的当下,CDA(Certified Data Analyst) ...
2025-09-05SQL 日期截取:从基础方法到业务实战的全维度解析 在数据处理与业务分析中,日期数据是连接 “业务行为” 与 “时间维度” 的核 ...
2025-09-04在卷积神经网络(CNN)的发展历程中,解决 “梯度消失”“特征复用不足”“模型参数冗余” 一直是核心命题。2017 年提出的密集连 ...
2025-09-04CDA 数据分析师:驾驭数据范式,释放数据价值 在数字化转型浪潮席卷全球的当下,数据已成为企业核心生产要素。而 CDA(Certified ...
2025-09-04K-Means 聚类:无监督学习中数据分群的核心算法 在数据分析领域,当我们面对海量无标签数据(如用户行为记录、商品属性数据、图 ...
2025-09-03特征值、特征向量与主成分:数据降维背后的线性代数逻辑 在机器学习、数据分析与信号处理领域,“降维” 是破解高维数据复杂性的 ...
2025-09-03CDA 数据分析师与数据分析:解锁数据价值的关键 在数字经济高速发展的今天,数据已成为企业核心资产与社会发展的重要驱动力。无 ...
2025-09-03解析 loss.backward ():深度学习中梯度汇总与同步的自动触发核心 在深度学习模型训练流程中,loss.backward()是连接 “前向计算 ...
2025-09-02要解答 “画 K-S 图时横轴是等距还是等频” 的问题,需先明确 K-S 图的核心用途(检验样本分布与理论分布的一致性),再结合横轴 ...
2025-09-02CDA 数据分析师:助力企业破解数据需求与数据分析需求难题 在数字化浪潮席卷全球的当下,数据已成为企业核心战略资产。无论是市 ...
2025-09-02Power BI 度量值实战:基于每月收入与税金占比计算累计税金分摊金额 在企业财务分析中,税金分摊是成本核算与利润统计的核心环节 ...
2025-09-01巧用 ALTER TABLE rent ADD INDEX:租房系统数据库性能优化实践 在租房管理系统中,rent表是核心业务表之一,通常存储租赁订单信 ...
2025-09-01CDA 数据分析师:企业数字化转型的核心引擎 —— 从能力落地到价值跃迁 当数字化转型从 “选择题” 变为企业生存的 “必答题”, ...
2025-09-01数据清洗工具全景指南:从入门到进阶的实操路径 在数据驱动决策的链条中,“数据清洗” 是决定后续分析与建模有效性的 “第一道 ...
2025-08-29机器学习中的参数优化:以预测结果为核心的闭环调优路径 在机器学习模型落地中,“参数” 是连接 “数据” 与 “预测结果” 的关 ...
2025-08-29