京公网安备 11010802034615号
经营许可证编号:京B2-20210330
何为大数据
唐太宗说过:以铜为鉴,可以正衣冠,以人为鉴,可以明事理,以史为鉴,可以知兴替。说白了,大数据就是借鉴曾经的甚至正在进行的价值信息,来对需求进行优化和处理。而这里的优化和处理分析就用到了我们所说的大数据。
知己知彼,百战不殆。
什么是大数据呢?
特点:灵活性,时效性,易用性。
1,数据的收集和准备(Flume,Sqoop),2,数据的存储(HDFS,Hbase),3,数据的资源管理(YARN),4,计算框架(MapReduce,Spark),5,数据的分析(R),6,数据的展示(D3).
从技术上来说,大数据就是,根据自己的需求,从互联网、物联网、企业等抓取出各种大量的结构化数据(DB),半结构化(文件),和非结化的数据(文件),其中也会含有各种实时流数据(日志)。这些数据通过sqoop2组件存储到HDFS中,这里的sqoop组件在这里是:提取数据的作用。
HDFS是我们这个大数据的一个总存储,有着类似“系统”的作用,他可以分为多个Namenode和和datanode组合。Namenode中存储着这些数据的元数据,而各种需求数据实际存储在各个的datanode中。所以在从HDFS中提取数据时都会询问namenode得到数据位置后再去datanode中取数据。其中会需要HDFS中专门的组件。
得到我们需求的数据后,我们要处理这些数据,为了高效处理和资源的充分利用,我们用到了YARN这个组件,YARN得到用户作业后,告诉其中的一个“司令官”(RM),司令官询问“参谋官”(AM)HDFS哪个节点上有空闲场地来进行工作,参谋官找到空闲场地后,生成一个NM节点,也就是作业场地进行工作。期间RM和AM都会根据需求进行场地的协调。
有了场地,我们就可以处理这些数据,这就用到了MapReduce或者Spark等计算框架,这里我们讲一下MapReduce,他分为Map和Reduce。Map用来把信息根据需求划分提取出来,Reduce再把提取出来的需求信息整合到一起。因为需求不同,我们的计算框架也是不同的。
得到上一步中提取的需求数据,我们就会对数据进行分析处理。此刻我们用到了R这个组件进行数据分析,分析后得到一些结果
得到的结果再用R进行数据展示。
比如一个物流公司:
贵公司中的物流信息正需要大数据来进行优化,根据大数据来处理:车货匹配、运输线路分析、销售预测与库存、供应链协同管理等。可以有效的为贵公司提高效益,带来方便,减少损失。
比如,我见过某快递公司门前很多运送车辆,两三天配不上货也是正常的事,放在那浪费资源。如果用到我们的大数据来分析,全国哪些地方网上购物量大,需求车辆多或者少,这样我们就知道那个地方放几辆车合适。这样就会实现车货的高效匹配。甚至还可以有效解决公共信息平台上没有货源或货源信息虚假。
我们知道了各个地方对各个货物需求量的信息后,就会把需求的货物量运送过去,这又用到了大数据分析,大数据分析出最短化、最优化的运输路线。这样节省了时间,就会运输更多的货物。运输过程中,每个车辆零件都会有一定的寿命,根据分析,我们就会设备修理预测,进行防御性的修理。如果没有我们的分析,就会造成延误和再装载的负担,并消耗大量的人力、物力。
把货物运过去后,根据货物量,就会对库存结构和降低库存存储成本。
需求预测、库存计划、资源配置、设备管理、渠道优化、生产作业计划、物料需求与采购计划,供应链协同管理。
订单、产能、调度、库存和成本间的关系,需要大量的数学模型、优化和模拟技术
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02