京公网安备 11010802034615号
经营许可证编号:京B2-20210330
构建大数据系统的前沿技术概述
第一部分存储模型之前,先抛两个问题:
1)这些存储的数据结构,主要是来优化什么操作的?
2)SSD对于这些存储结构有什么样的影响?
一. 存储模型--读和写的取舍
一个好的存储结构,我们希望的是更新数据快,查找特定的数据也快,最好占用空间还小,一般来说,这算得上是对存储的终极要求了。
终极要求,这东西一般都是YY,但是,加上一定的限制条件,在特定的时期,数据大爆炸之前,单机时代,B树这个结构,可以算得上是银弹。基本上所有的关系型数据库系统都采用这种结构。SqlServer和Oracle都采用B树,Mysql,Db2还有informix采用的B+树,
磁盘读数据和写数据的过程,1)移动磁头到对用的扇区,2)然后磁头接触磁道,写或者读数据,3)通过总线传输到内存或者寄存器。
磁头移动时间,十分之一秒的级别,读写的时间,按照普通磁盘,7200转的,差不多在百分之一秒级不到,还有一个耗时就是总线传输时间,这个基本可以忽略,在10的8次方分之秒。
另一个背景知识是,文件系统, 读写是有最小操作单位的块,每次I/O操作,都是整块操作。块大小,跟文件系统的格式有关,fat32,ext3/4等等,常见的块大小4096个字节,块大小可以调整,块,对应到物理的扇区。
通过上面的分析,有效的优化是降低磁头定位的次数;B树就是综合读写两方面的需求,提出的对磁头定位操作优化的结构。隐含的数据特征是:重查询,轻新增,并发写要求不高。总的数据量优先,单挑记录会被反复更新,这刚好就是单机时代的数据特征。在做关系型数据库表设计的时候,知道这点会比较有用。
B+树和B*树是B树的两种变形,B+树降低了中间节点的数据大小,同样的块大小,可以存储更多的数据,检索上更有效率,但是,实际数据读取上有妥协。B*树,相对于B数在节点的分裂,旋转,平衡方面有增强。
进入互联网时代,数据的特征有了变化,写多读少,数据具备热点时间。有效期之后的数据,就相当于传统数据库的归档。另外一个有利的变化,是内存变得很便宜,可以用足够低的成本hold住热点数据。这种前提下,顺序写做持久化,热点数据保持在内存中,并且在内存中进行排序,保证顺序写入的数据是有序的。
基于这样的思路,就有了LSM-Tree和COLA-Tree两种改进。区别在于LSM的MemTable保持固定大小,持久化数据的索引都有compaction阶段完成。COLA的思路,是Memtable就按照固定的逻辑完成索引更新。COLA里面是没有Memtable这个名称的。
基本上现存所有的NoSQL都是采用LSM-Tree的思路,除了TokuDB。
Cassandrda和LevelDB,需要特别提一下,他们两个在Compaction阶段的实现,是参考了COLA的做法的,sstable做了分层合并。COLA在层之间,还引入了分形树(Fractal Tree)的实现,改进索引性能,Cassandra和LevelDB是没有,单层上数据检索,还是采用的BloomFilter和二分法。
二.实时计算-精度和速度的权衡
纯粹从性能对比,COLA跟B树算是公平对决,数据如下:块大小4098字节
查询Cola比B树慢12倍,插入速度是B树的340倍。
LSM不具备可比性,更多靠cache命中的效率。
之前提到的问题,SSD的影响,这么看起来,SSD对B树和Toku的影响要比LSM大(只是相对的),这些算法,对于ssd来说,算法对性能的影响并不重要,比较重要的反而是,通过算法降低,flash的读写次数,达到延长ssd使用寿命和减少损坏率。
除了需要保存检索数据,还需要对数据进行计算,流计算,实时计算的框架,已经是大数据里面到处可见,Storm,Spark Stream等等,这些流行框架更多是调度系统,真正的计算还需要自己来实现。
在我现在的实际工作中,常见的有点难度的计有exist是否存在,distinct count 去重计数,top n 等等在 window内部。
所有这些计算,对于内存都是很巨大的挑战。可行的做法,就是引入精度,接受概率。
这些做法,在数据挖掘的领域,已经是司空见惯的做法,比如关联规则挖掘的Apriori跟Fp-growth等都引入的概率的做法。
很多程序员其实也用过,一说就知道,Bloom Filter做去重,接受一定概率的误差,换来空间的减少,提升性能。
接下来介绍几个,我在实际工作中,用得比较多的方法,实际上是几个概念。
1)Bloom Filter
2)Sketching
3)基数估计
BF略过,大家都知道。Sketching,用于做频率估计,估算数据流中每个数据的出现次数。基本思路也跟BF差不多,通过互相独立的hash函数依次处理输入,接受一定程度的正负错判,估计值在一定概率内正确,这个概率可调整。这类方法的另一个优势是可以很容易实现分布式,能够合并。
Sketch有几个变种,basic sketch, counter sketch和counter min sketch,依次各有改进。
Bf和counter min sketch算是当前最优的top n的方法。Cms对于重复度高的效果较好,重复度不高了,有基于cms基础上的改进,counter-mean-min sketch。
上面在存储模型中间没有提到,cms还能够用在nosql的range query索引上,不追求精确度,在性能方面完爆B树。
基数估计也是类似的思路,用很少的空间,计算集合的势,常见的算法有Linear counter,LogLog counter两类,分别使用在重复情况比较明显和重复情况相对于总量来说较低
Redis在支持bitmap之后,在2.8.9之后,直接提供了hyperloglog的支持,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基 数。线性的counter也可以直接利用bitmap实现。Hash函数的murmur是比较可以无脑使用的实现。
具体的算法描述,大家可以问百度,不细说了,知道有哪些可用场景就好。我们主要用在风险检测的参数计算方面。
三.分布式持久化-CAP的妥协
对于分布式持久化的内容,也扯两句,我个人很喜欢Dynamo模型的对称结构,BigTable的管理节点实在是不美观。也就是zk和gossip+vector clock的战争,这种选择也就决定了各自在CAP和ACID中间能够达到的水平。
四.日志为中心的基础架构设计
ArchSummit全球架构师峰会 上我也推荐过kafka的作者写的文章,在推荐一次,个人觉得每一个做分布式系统设计的架构师,都应该读几遍才好。
给大家看这样一个图
苏宁现在整体数据系统建设思路,差不多就是这样,通过日志,串行所有操作,避免冲突。基本上满足异地多活的需求。中间过程,分实时计算,批量计算并且在服务层合并数据。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16