京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据技术对于数据挖掘的未来究竟意味着什么(1)
我们都听说过如下的预测:到2020年,全球以电子形式存储的数据量将达到35ZB,是2009年全球存储量的40倍。而在2010年底,根据IDC的统计,全球数据量已经达到了120万PB,或1.2ZB。如果将这些数据都刻录在DVD上,那么光把这些DVD盘片堆叠起来就可以从地球垒到月球一个来回(单程约24万英里)。
对于动不动就忧天的杞人来说,如此庞大的数字可能是不详的,预示着世界末日的来临。而对于乐观主义者来说,这些数字却是一座信息金矿,随着技术的进步,其中所蕴含的财富会越来越容易被挖掘出来。
进入“大数据”时代,出现了不少新兴的数据挖掘技术,使得对数据财富的储存、处理和分析变得比以往任何时候都更便宜、更快速了。只要有了超级计算环境,那么大数据技术就能被众多的企业所用,从而改变很多行业经营业务的的方式。
我们对大数据技术的定义是:利用一些非传统的数据筛选工具(包括但不限于Hadoop)对大量的结构化和非结构化数据集合进行挖掘,以便提供有用的数据洞察。
大数据技术的概念和“云计算”一样,也存在着很多的炒作和大量的不确定性。为此,我们咨询了多位分析师和研究大数据的专家,让他们解释大数据技术是什么和不是什么,以及大数据技术对于数据挖掘的未来究竟意味着什么等诸多问题。
大数据技术的发展背景
对大企业而言,大数据的兴起部分是因为计算能力可用更低的成本获得,且各类系统如今已能够执行多任务处理。其次,内存的成本也在直线下降,企业可以在内存中处理比以往更多的数据。还有就是把计算机聚合成服务器集群越来越简单。IDC的数据库管理分析师Carl Olofson认为,这三大因素的结合便催生了大数据。
“我们不但能够把这些事情做好,而且能够以更低廉的成本去做这些事情,”他说。“过去有些大型超级计算机就曾涉足过繁重的多处理系统,一起构建成紧密聚合的集群,但由于都是专门设计的硬件,所以其成本动辄数十万甚至数百万美元。而现在,我们利用普通的商品化硬件也能获得同样的计算能力。这便帮助我们能够更快、更便宜地处理更多的数据。”
当然,并非所有拥有庞大数据仓库的企业都可以说他们正在使用大数据技术。IDC认为,某项技术要想成为大数据技术,首先必须是成本可承受的,其次是必须满足IBM所描述的三个“V”判据中的两个:多样性(variety)、体量(volume)和速度(velocity)。
多样性是指,数据应包含结构化的和非结构化的数据。体量是指聚合在一起供分析的数据量必须是非常庞大的。而速度则是指数据处理的速度必须很快。Olofson说,大数据“并非总是说有数百个TB才算得上。根据实际使用情况,有时候数百个GB的数据也可称为大数据,这主要要看它的第三个维度,也就是速度或者时间维度。假如我能在1秒之内分析处理300GB的数据,而通常情况下却需要花费1个小时的话,那么这种巨大变化所带来的结果就会增加极大的价值。所谓大数据技术,就是至少实现这三个判据中的两个的可承受得起的一种应用。”
与开源之关系
“很多人都认为,Hadoop和大数据是同义词。但这是个错误,”Olofson解释说。例如Teradata、MySQL和一些“聪明的集群技术”的实施案例都没有使用Hadoop,但也被认为是大数据的实施案例。
作为大数据的一种应用环境,Hadoop之所以能够引起人们的注意,是因为它是基于MapReduce环境的,这是超算圈里很常用的一种简化环境,主要是由谷歌所创建的一个项目。Hadoop是和各种Apache项目密切相关的混合实施环境,其中包含了在MapReduce环境下所创建的HBase数据库。
软件开发人员一般会用一切利用到Hadoop以及相似的高级技术的手段来响应——而这些技术很多都是在开源社区里开发的。“他们创建了一个令人眼花缭乱、变化多端的东西,即所谓的NoSQL数据库,该数据库的键值多数都已利用了各种技术在处理能力、多样化,或者数据库规模上做了优化的,”Olofson说。
开源技术一般是没有商业支持的,“所以这些东西还必须让其进化一段时间,逐渐剔除各种缺陷,而这一般需要数年的时间。这就是说,羽毛未丰的大数据技术目前还无法在普通市场上普及。”与此同时,IDC预计至少有三家商业厂商会在年底之前对Hadoop提供某种类型的支持服务。还有其他一些厂商,如Datameer等,也会提供带有Hadoop组件的分析工具,允许企业开发他们自己的应用。例如Cloudera和Tableau等已经在其产品中用到了Hadoop。
升级关系型数据库
行业观察家们一般都赞成在升级关系数据库管理系统(RDBMS)时也要考虑大数据技术。Olofson说,“大数据技术适用于速度更快、规模更大、成本更低廉的场合。”比如Teradata就把它的系统做得成本更低廉、具备可扩展性和集群环境。
然而还有些人则不这么认为。Gartner的数据管理分析师Marcus Collins说,“通常在使用RDBMS时,都要用到BI工具,但这种处理流程并非真的大数据。这种流程由来已久。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27