京公网安备 11010802034615号
经营许可证编号:京B2-20210330
Airbnb 数据基础设施与其背后的哲学
在 Airbnb 我们提倡数据文化并使用数据作为关键输入去决策。跟踪指标,通过实验验证假设,建立机器学习模型和深入挖掘商业洞察是我们快速聪明前进的关键。经过多年的进化,我们觉得数据基础设施服务稳定,可靠,可扩展,因此是一个很好的机会来分享我们的经验给社区。
这第一篇关于 Airbnb。云计算尤其亚马逊的云服务(AWS)提供弹性计算能力,无需购买昂贵服务器甚至机房,通过虚拟化主机,还提供丰富配套组件,节约运维成本,方便扩展,成为很多创业公司的首选。这里 Airbnb 工程师 James Mayfield 以 AWS 作为基础搭建数据架构中走过的坑和经验分享,由于笔者也刚好做过,难度 2 星,供做数据的朋友学习。
第 1 部分:数据基础设施的背后哲学
在 Airbnb 我们提倡数据文化并使用数据作为关键输入去决策。跟踪指标,通过实验验证假设,建立机器学习模型和深入挖掘商业洞察是我们快速聪明前进的关键。
经过多年的进化,我们觉得数据基础设施服务稳定,可靠,可扩展,因此是一个很好的机会来分享我们的经验给社区。在接下来的几周内,我们将发布一系列突出我们的分布式架构和工具组件的博客文章。由于开源贡献者提供了许多我们每天使用的基础系统,使我们不仅乐意分享在公共 GitHub 的项目,而且还会聊我们一路上学到的东西。
了解我们数据基础设施的一些非正式理念:
放眼开源世界:在开源社区中数据基础设施有很多好的资源,我们尽量采用这些系统。此外,如果我们建立一些对自己有用又对社有回报的东西。
首选标准组件和方法:有些时候是发明一种全新的一块基础设施是合理的,但很多时候,这没有很好的利用资源。建立一个独特解决方案是靠直觉还是采用现有的是非常重要的,而靠直觉必须正确考虑维护支持的隐性成本。
确保它能够扩展:我们发现数据与业务不是线性增长,但随着技术员工建立新的产品和在业务采取新方式后,将超线性增长。
通过倾听你的同事解决实际问题:与公司的数据用户沟通是了解路线图的重要组成部分。与亨利·福特的口号一致,我们必须在找更快的马与造汽车上保持平衡 – 但首先要听你的客户。
留有一定的余量:我们超额认购资源如集群,促进探索的文化。对基础设施团队实现资源利用最大化还高兴的太早,但我们的假设是,在存储中发现了一个新的商业机会将抵消了这些额外的机器费用。
第 2 部分:基础设施概况
这里是我们的基础设施的主要部件的简图。
源数据进入我们的系统有两个主要渠道:源代码发送 Kafka 事件和线上数据库将 AWS RDS 中的存储导出,再通过 Sqoop 传递。
这里数据源包含用户的活动事件数据和快照源数据,发送到 “金” 集群存储,并开始运行我们的提取,转换和加载(ETL)。在此步骤中,我们针对业务逻辑,汇总表格,并执行数据质量检查。
在上面的图中,有 “金” 和 “银” 两个独立集群,我们将在后面详细描述。分离原因是保证计算和存储资源的隔离,如果一个挂了可以做灾难恢复。这种架构提供了一个理想环境,最重要的工作严格保障 SLA(服务保证协议),避免资源密集型即席查询的影响。我们把 ‘银’ 集群作为一个生产环境,但是放宽保证,可以承受资源密集型查询。
通过两个集群我们获得隔离力量,在管理大量的数据复制并维持动态系统之间有同步的成本。“金” 是我们的真正来源,我们将复制 “金” 数据的每一位到 “银”。“银” 集群上生成的数据不会被复制回 “金”,所以你可以认为这是 “银” 作为一个超集集群,是单向复制方案。因为我们的很多分析和报告从 “银” 簇发,当 “金” 有新数据产生,我们尽快复制它到 “银”,去保证其他工作刻不容缓运行。更关键的是,如果我们更新预先存在的 “金” 集群上的数据,我们必须小心的更新并同步传播给 “银”。这种复制优化问题并没有一个开源的很好解决方案,所以我们建立了一套新的工具,我们会以后更详细地介绍。
我们改进 HDFS 已经取得了很大效果,并更准确地用 Hive 管理表,作为我们中心源的数据。仓库的质量和完整性取决于数据不变的,继承数据可通过重新推导计算的 – 使用分区 Hive 表对这个目标非常重要。此外,我们不鼓励数据系统的扩散,不希望维护单独的基础设施,比如我们的源数据和我们终端用户报告。根据我们的经验,这些中间系统混淆真理的来源,增加 ETL 的管理负担,难以跟踪从原始数据一路上来自的迭代指标。我们不跑 Oracle,Teradata,Vertica,Redshift 等,而是使用 Presto 对所有 Hive 管理的表做即席查询。我们都希望在不久的将来,联通 Presto 和 Tableau。
其他的一些在图中要注意的东西,包括 Airpal,使用 Presto 支持基于 Web 查询执行的工具,我们搭建并开源了。这是在数据仓库即席 SQL 查询,1/3 以上的所有员工都使用该工具运行查询主界面。作业调度功能就是通 Airflow,一个以编程方式编写,调度和监控的平台,可以运行在 Hive,Presto,Spark,MySQL 的数据管道等。我们在逻辑上跨集群共享 Airflow,但物理作业运行在合适的集群机器上。Spark 集群是工程师和数据科学家机器学习工作偏爱的另一处理工具,对流处理非常有用。你可以在 Aerosolve 查看我们在机器学习上的努力。 S3 是一个独立的存储系统,我们可以从 HDFS 数据得到便宜的长期存储。Hive 管理的表可以对自己存储改变,并指向 S3 的文件,容易访问和管理元数据。
第 3 部分:Hadoop 集群的详细演化
今年我们从架构不佳的集群上进行迁移,被称为 “Pinky 与 Brain”,放到上述的 “金银” 系统中去。两年前,我们从 Amazon EMR 移到一组运行在 HDFS 300 TB 数据的 EC2 实例。今天,我们有两个独立的 HDFS 集群,数据 11 PB,我们 S3 存储 PB 级别。有了这样的背景,我们来解决问题:
1)在 Mesos 架构上运行一个独特的 Hadoop
早期的 Airbnb 工程师们在一个叫做 Mesos 上,其中规定了部署跨多个服务器的配置。我们使用 AWS 上 c3.8xlarge 的单一集群。每个 bucket 是 3T 的 EBS,并跑了所有的 Hadoop,Hive,Presto,Chronos 的,和 Mesos 上的 Marathon。
需要明确的是,许多公司都使用 Mesos 实施新颖的解决方案来管理大型重要基础设施。但是,我们的小团队决定运行更加规范,无处不在的部署,减少我们花在运营和调试的时间。
Mesos 上 Hadoop 问题:
很少能见到工作运行和日志文件
很少能见到集群健康状态
Hadoop 在 Mesos 只能运行 MR1
Task Tracker 竞争的性能问题
集群的低利用率
高负荷,难调试系统
缺乏整合 Kerberos 安全
解决方法:答案是简单地转移到一个 “标准” 栈。我们很乐意从数百或数千公司学习操作大型集群,而不是试图去创造一种新的解决方案。
2)远程读取和写入
之前通过存储在 EBS(弹性块存储)上访问我们所有 HDFS 数据,我们发送到公共 Amazon EC2 运行查询网络数据。
Hadoop 是为特定硬件搭建,预先在本地磁盘读写,所以这是一个设计不匹配。
关于远程读写,我们曾错误地选择了 AWS 在三个不同的可用性区域分割我们的数据存储,而它们在一个区域内。每个可用区被定为自己的 “机架”,3 个副本分别存放在不同的机架,因此远程读写操作都不断发生。这又是一个设计缺陷,导致缓慢的数据传输,当一台机器丢失或损坏块时候,远程拷贝就随时发生。
解决方法:使用本地存储专门实例,并在一个可用性区域中运行,而不是让 EBS 修正这些问题。
3)同构机器上工作负载的异构
纵观我们的工作量,我们发现,我们的构件有不同的要求。我们的 Hive/ Hadoop/ HDFS 机器需大量的储存空间,但并不需要多少内存或 CPU。Presto 和 Spark 渴望内存和高处理能力,但并不需要多大的存储。通过 3TB EBS 支持运行 c3.8xlarge 被证明是存储非常昂贵,也是限制因素。
解决方法:一旦我们迁移出 Mesos 架构,我们能选择不同类型的机器运行各种集群,例如使用 r3.8xlarge 实例运行 Spark。亚马逊发布新生代 “D 系列” 的实例,我们正在评估,这从成本角度所作的过渡更可取的。从 c3.8xlarge 机器每个节点的远程存储 3TB 转变到 d2.8xlarge 机器上本地存储 48TB 是非常有吸引力,会为我们在未来三年节省了数百万美元。
4)HDFS Federation
我们一直在运行Federation HDFS 集群,数据共享物理块池,但每个逻辑集群分离 mapper 和 reducer 集合。这让我们可以通过 query 查询访问任何一块数据,提高终端用户体验,但我们发现,Federation 并没有得到广泛的支持,被某些专家认为是实验性和不可靠的。
解决方法:移到一个完全不同的 HDFS 节点,而不是运行 Federation,做到在机器水平的真正隔离,这也提供了更好的灾难恢复机制。
5)系统监控是累赘
一个独特的基础设施体系最严重的问题是创建自定义监视和报警集群。 Hadoop,Hive,HDFS 是复杂的系统,容易发生众多故障。试图预测所有故障状态,并设置合理的门槛是相当有挑战性。
解决方法:我们签了 Cloudera 的支持合同,用他们的专业知识来获得在架构和操作这些大型系统,以及最重要的通过使用 Cloudera 的管理器工具,减少我们的维护负担。接入到我们内部系统,大大减少了我们的监控和报警负担,这样我们花很少的时间进行系统维护和警报。
结论
在我们旧的集群上评估错误和低效率,开始着手系统地解决这些问题。去迁移 PB 数据和数百个用户作业是一个漫长的过程,因为还不破坏我们现有服务;我们将单独把一些工具贡献给开源社区。
现在,迁移完成后,我们已经大大减少了平台事故和故障的数量。不难想象我们在不成熟的平台上处理的 bug 和问题,但系统现在基本上是稳定的。另一个好处是,当我们雇佣新工程师加入我们的团队,上手很快因为系统也被其他公司采用。
最后,因为我们有机会在 “金银” 系统去设置新鲜的架构,搭建所有新实例,用合理的方式添加 IAM 角色来管理安全性。这意味着在集群之上提供更为精密的访问控制层,集成管理我们所有的机器。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化商业环境中,数据已成为企业优化运营、抢占市场、规避风险的核心资产。但商业数据分析绝非“堆砌数据、生成报表”的简单 ...
2026-01-20定量报告的核心价值是传递数据洞察,但密密麻麻的表格、复杂的计算公式、晦涩的数值罗列,往往让读者望而却步,导致核心信息被淹 ...
2026-01-20在CDA(Certified Data Analyst)数据分析师的工作场景中,“精准分类与回归预测”是高频核心需求——比如预测用户是否流失、判 ...
2026-01-20在建筑工程造价工作中,清单汇总分类是核心环节之一,尤其是针对楼梯、楼梯间这类包含多个分项工程(如混凝土浇筑、钢筋制作、扶 ...
2026-01-19数据清洗是数据分析的“前置必修课”,其核心目标是剔除无效信息、修正错误数据,让原始数据具备准确性、一致性与可用性。在实际 ...
2026-01-19在CDA(Certified Data Analyst)数据分析师的日常工作中,常面临“无标签高维数据难以归类、群体规律模糊”的痛点——比如海量 ...
2026-01-19在数据仓库与数据分析体系中,维度表与事实表是构建结构化数据模型的核心组件,二者如同“骨架”与“血肉”,协同支撑起各类业务 ...
2026-01-16在游戏行业“存量竞争”的当下,玩家留存率直接决定游戏的生命周期与商业价值。一款游戏即便拥有出色的画面与玩法,若无法精准识 ...
2026-01-16为配合CDA考试中心的 2025 版 CDA Level III 认证新大纲落地,CDA 网校正式推出新大纲更新后的第一套官方模拟题。该模拟题严格遵 ...
2026-01-16在数据驱动决策的时代,数据分析已成为企业运营、产品优化、业务增长的核心工具。但实际工作中,很多数据分析项目看似流程完整, ...
2026-01-15在CDA(Certified Data Analyst)数据分析师的日常工作中,“高维数据处理”是高频痛点——比如用户画像包含“浏览次数、停留时 ...
2026-01-15在教育测量与评价领域,百分制考试成绩的分布规律是评估教学效果、优化命题设计的核心依据,而正态分布则是其中最具代表性的分布 ...
2026-01-15在用户从“接触产品”到“完成核心目标”的全链路中,流失是必然存在的——电商用户可能“浏览商品却未下单”,APP新用户可能“ ...
2026-01-14在产品增长的核心指标体系中,次日留存率是当之无愧的“入门级关键指标”——它直接反映用户对产品的首次体验反馈,是判断产品是 ...
2026-01-14在CDA(Certified Data Analyst)数据分析师的业务实操中,“分类预测”是高频核心需求——比如“预测用户是否会购买商品”“判 ...
2026-01-14在数字化时代,用户的每一次操作——无论是电商平台的“浏览-加购-下单”、APP的“登录-点击-留存”,还是金融产品的“注册-实名 ...
2026-01-13在数据驱动决策的时代,“数据质量决定分析价值”已成为行业共识。数据库、日志系统、第三方平台等渠道采集的原始数据,往往存在 ...
2026-01-13在CDA(Certified Data Analyst)数据分析师的核心能力体系中,“通过数据建立模型、实现预测与归因”是进阶关键——比如“预测 ...
2026-01-13在企业数字化转型过程中,业务模型与数据模型是两大核心支撑体系:业务模型承载“业务应该如何运转”的逻辑,数据模型解决“数据 ...
2026-01-12当前手游市场进入存量竞争时代,“拉新难、留存更难”成为行业普遍痛点。对于手游产品而言,用户留存率不仅直接决定产品的生命周 ...
2026-01-12