京公网安备 11010802034615号
经营许可证编号:京B2-20210330
真实和完备是大数据分析的基础
随着大数据时代的到来,网络数据的真实性问题日益受到关注。相较以抽样调查为主的小数据时代,在大数据时代,如何进行正确的数据清洗和数据分析,以便从海量信息源中获取真实而有价值的信息内容,并生成指向性清晰的决策指导,成为哲学社会科学界和自然科学界共同面临的课题。
数据来源:确保具备大数据品质
在中国人民大学新闻学院教授喻国明看来,高品质数据来源是确保大数据分析真实、可靠的首要条件。“根据国内外的相关技术发展情况分析,当前比较权威、可靠的大数据来源主要有两个,一是掌握多方面的社会运行数据的政府部门,二是在某一领域拥有数据采集能力的大型公司,如数字移动、网购、社交媒体、搜索引擎、输入法软件等公司。”
喻国明认为,大数据时代的一个重要特点,就是全方位、立体式的数据分析成为可能。“不过,单个部门或企业所掌握的大数据往往类别单一,对其的分析结论难免陷于零散、维度单一。”另外,从严格意义上讲,大数据不是政府、企业的“私有财产”,它与社会个体的权利和隐私密切相关,应当属于全社会。
那么,目前民间进行的大数据分析“靠谱”吗?上海交通大学舆情研究实验室主任谢耕耘介绍,如果对大数据来源进行分类,可以分为政府、大企业的定点监测,以及民间依靠软件等技术手段的数据挖掘。对此,喻国明这样评价:相对于政府部门与大型网络企业的大数据采集能力,仅仅从信息海洋中简单挖掘、捞取的部分所谓的“大数据”,远远不具备真正的大数据品质。
北京邮电大学互联网治理与法律研究中心主任李欲晓更愿意将大数据分析结果看作一种数据产品。“衡量其价值,关键在于它是否面向特定客户群提供了所需数据产品类型。”目前,社会各界已经意识到大数据时代的到来,许多机构和个人也在积极开发相关软件和产品,这个过程的最大价值,便是提升了全社会的大数据处理能力。
数据分类:建立更多有效标签
谢耕耘认为,通过搜索引擎的分析软件进行数据挖掘,是当前许多民间研究机构获取所谓“大数据”的主要途径。目前,付之应用的诸如“爬虫”等大数据挖掘软件,其作用是非常有限的——往往在只挖掘到几千条数据时,就被相关网络平台为防止机器人挖掘而设置的障碍所拦截,并被要求反复输入验证码。“因此,这种依靠软件来执行的数据挖掘方式,往往需要数十台、上百台服务器,以及高容量的带宽和大量的IP地址。”其挖掘所获得的大数据,通常是局部的、不完整的,难以推断整体状况。
从这个意义上看,尽管目前从事大数据分析的人力、机构很多,但真正做出可信服的研究成果的团队并不多。在李欲晓看来,当前的大数据分析尚未成熟,仍处于“成长期”。
喻国明认为,大数据由不同数据集构成,若想全面、立体式反映某一个体、事物、事件,其关键在于对不同数据集进行关联分析,而关联分析的前提是建立标签。“对每一个数据文本做标签,就像图书分类一样。几十万册的图书,有了分类,才能够有序管理。面对大数据的海量信息,有了标签,就可以轻松找出需要的信息。”尽管不可能存在一个100%包容性的大数据库,但对数据进行快速、有效的处理与整合,无疑能为未来深入、真实、可靠的分析夯实基础。
“有些标签是自然形成的。例如,通过社交媒体的个人资料,就可以轻松分出年龄、性别、职业等不同标签。还有一些标签,则要通过网络行为分析才能认定。例如,在分析个人言论的社会特征时,可根据网络发言使用的词频、语义进行计算,并依此为网民贴上早起群体、晚睡群体,时尚型消费者、保守型消费者,高收入者、低收入者等标签。”喻国明认为,在大数据时代,一个文本碎片被打上的有效标签越多,其可被利用的价值越大。
数据分析:以小数据为“校准”
中国社会科学院新闻与传播研究所研究员姜飞做了一个有趣的比喻,“在大数据时代,数据信息好比货币,要像研究货币一样研究信息数据。”在他看来,“信息货币”一旦不可信,也容易发生“金融危机”;要提高大数据分析的可信度,就要找到一个“校对的准绳”。
喻国明认为,传统的抽样调查在发布结论时,需同时公布调查是否遵守了“21条规则”(包括数据来源、调查方法、资助者等),以保证调查报告不会产生误导。未来,大数据分析也应该同步公布数据来源、数据量、数据截取的时间区间等有关数据品质的指标。“如果数据来源是通过‘爬取’软件获取,那么公布‘爬取’量有多大,可以在一定程度上帮助受众判断数据分析的真实度、可信度。”
另外,尽管小数据是小范围的、片段的,但它有一个核心价值,即能够提供准确的结构性分析,拥有可靠的统计学价值。喻国明表示,“大数据虽然信息丰满,但整体构造难以看清,因此,小数据能够成为大数据判断结构性位置的校标。”
李欲晓还表示,大数据时代来势迅猛,关涉企业社会责任、个人社会规范等方面的法律法规正在完善。未来,在数据来源、数据分析、结论校准等方面,应陆续出台相关的法律法规和学术规范,以保障大数据在国家治理中发挥更大作用。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27