京公网安备 11010802034615号
经营许可证编号:京B2-20210330
Apache Hadoop是存储和处理大数据的开源软件框架 Hadoop项目
Hadoop能够在上千台机器组成的集群上运行大规模集群的可靠性,不能仅仅靠硬件来保证,因为节点的失败、网络的失败等状况不可避免,为了能够在大规模集群上顺利运行,Hadoop的所有模块,其设计原则基于这样的基本假设,即**硬件的失败在所难免,每个节点都没有那么可靠,可能发生节点失败状况,软件框架应该能够自动检测和处理这些失败情况。 Hadoop通过软件,在大规模集群上提供高度的可用性(High Availability)
Hive是Hadoop平台上的数据仓库,用于对数据进行离线分析。它提供了一种类 似于SQL的查询语言HQL (Hive Query Language)。Hive将SQL转化为 MapReduce作业(Job)在Hadoop上执行。
HBase是Google Big Table在Hadoop平台上的开源实现。它是一个针对结构化数 据处理的、面向列分组(Column Family)的、可伸缩的、高度可靠的、高性能的分 布式数据库。一般用于数据服务(Data Serving)应用场合。
Pig实现了数据查询脚本语言Pig Latin。用Pig Latin脚本语言编写的应用程序,翻 译为MapReduce作业,在Hadoop上运行
Flume是一个可扩展的、高度可靠的、高可用的分布式海量日志收集系统,一般 用于把众多服务器上的大量日志,聚合到某一个数据中心。Flume提供对日志数 据进行简单处理的能力,比如过滤、格式转换等。同时,Flume可以将日志写往 各种目标(本地文件、分布式文件系统)。
Mahout是Hadoop平台上的机器学习软件包,它的主要目标是实现高度可扩展的 机器学习算法,以便帮助开发人员利用大数据进行机器学习模型训练。Mahout现 在已经包含聚类、分类、推荐引擎(协同过滤)、频繁集挖掘等经典数据挖掘和机 器学习算法。
Oozie是一个工作流调度器(Scheduler)。Oozie协调运行的作业,属于一次性非 循环的作业,比如MapReduce作业、Pig脚本、Hive查询、Sqoop数据导入/导出 作业等。Oozie基于时间、和数据可用性进行作业调度,根据作业间的依赖关 系,协调作业的运行
Zookeeper是模仿Google公司的Chubby系统的开源实现,Chubby是一个分布式 的锁(Lock)服务
原理:
读文件
在大数据处理的领域中,Hadoop 可谓是一位 “重量级选手”。然而,就像任何技术一样,Hadoop 1.0 也有它的不足之处。
Hadoop 1.0 存在着明显的单点故障问题。这就好比一个团队中,如果关键人物出了问题,整个团队的运作可能就会陷入混乱。在 Hadoop 1.0 中,一旦 NameNode 这个关键节点出现故障,整个系统就可能面临崩溃的风险。
而且,它的资源管理方式也不够灵活。就好像分配房间,如果只有一种固定的分配方式,很难满足各种不同的需求。
不过,技术总是在不断进步的。Hadoop 2.0(YARN)的出现,给我们带来了新的希望。
YARN 的原理就像是一个更聪明的 “管家”。它把资源管理和任务调度分开了。ResourceManager 就像是大管家,负责整体资源的分配和监控。而 ApplicationMaster 则像是每个任务的小管家,专门负责自己任务的资源申请和调度。
这种分离的方式,让系统的扩展性大大增强。就好比原来的房子不够住了,现在可以很方便地加盖新的房间,而不会影响原来的居住者。
同时,容错性也得到了提高。即使某个 “小管家” 出了问题,也不会让整个 “家” 乱了套。
资源利用率也因为这种更精细的管理而得到了提升,不再有资源浪费或者分配不均的情况。
YARN(Yet Another Resource Negotiator)
总的来说,Hadoop 2.0(YARN)的出现,解决了 Hadoop 1.0 的很多痛点,让大数据处理变得更加高效、可靠和灵活。相信在未来,它还会不断进化,为我们处理大数据带来更多的便利和惊喜!
ResourceManager的主要功能,是资源的调度工作。所以它能够轻松地 管理更大规模的集群系统,适应了数据量增长对数据中心的扩展性提出的挑战。
ResourceManager是一个单纯的资源管理器,它根据资源 预留要求、公平性、服务水平协议(Service Level Agreement, SLA)等标准,优化 整个集群的资源,使之得到很好的利用。
在Hadoop1.0平台上开发的 MapReduce应用程序,无需修 改,直接在YARN上运行。
当数据存储到HDFS以后,用户希望能够对数据以不同的 方式进行处理。除了MapReduce应用程序(主要对数据进行批处理),YARN支持 更多的编程模型,包括图数据的处理、迭代式计算模型、实时流数据处理、交互 式查询等。一般来讲,机器学习算法需要在数据集上,经过多次迭代,才能获得 最终的计算结果。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14