京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据处理_大数据处理技术
每个企业或多或少每天都会需要做一个数据统计,来掌握公司的运营情况,看看自己的客户每天是否有增加等等,当客户的数据信息达到一定的程度,单独的使用一台计算机进行计算肯定不行,因此就会需要多台机器同时处理。现在有很多流行的分布式系统,架构设计的很复杂,考虑了各种容错性,协作性,任务分配性等,但是要快速的掌握和部署到实际的机器上还是很困难的。为此,提出一个简单、有效并能根据实际情况灵活开发的大数据处理的架构。
假设条件:
(1)要处理的数据分布在其他的数据记录机上,比如有w1~w12台机器,每台机器收集到数据量相差不大。
(2)现有三台机器stat1~stat3(3台机器的性能和配置相差不大)可供使用的数据统计机器,用来从w1~w12这12台机器上收集数据,并进行处理,得到用户的信息。
(3)如果要统计的数据必须要将w1~w12台机器上的数据全部取回来,并做数据消重,比如说要按照IP消重。如果不需要消重,那么就没有必要将所有的数据都合并在一起,可以分别计算后再求和。
首先: 我们查看w1~w12这12台机器上数据文件大小,并按照从大到小的顺序将数据文件排列,将最大的数据文件分给给stat1,次大的分配给stat2,第三大的分配给stat3,将第四大的分配给stat3,第五大的分配给stat2,第六大的分配给stat1,第七大的分配给stat1,第八大的分配给stat2,等等如此反复,这样stat1~stat3每台机器上对应的数据文件大小就差不多了。如果觉得w1~w12每台机器上的数据文件相差不大,那么就可以按照就近原则,将w1~w4分配给stat1,w5~w8分配给stat2,w9~w12分配给stat3进行处理。
确定每台数据统计机器要处理那些数据后,就可以在每台机器上写一个定时任务,可以同时在每日凌晨的某个时间点,每个stat机器去相应的w机器上去抓取数据,并进行分析。如果要对特定的字段比如IP需要做全局去重(w1~w12),那么我们可以采用简单的方法,将IP做个MD5转换,取MD5的第一个字母做为分割线,把IP分到16个不同的文件中,比如ip1~ip16,这样stat1~stat16每台机器上都会产生16个ip文件。每台stat机器处理完成后,生成一个done文件,表示其任务已经结束。然后处于等待阶段
从stat1~stat3这三台机器中选中一台机器作为master,当其完成抓取数据,将ip分配到16个IP文件中,并生成done文件后,去其他两台stat机器上抓取done文件,如果三台机器的done文件都存在了,那么master就将每台机器上的ip1~ip5文件都拷贝到stat1这台机器上,将ip6~ip10拷贝到stat2这台机器上,其ip11~ip16拷贝到stat3上,master拷贝任务完成后,分别在三台机器上生成一个done1文件,表示分配任务完成。
stat1~stat3的机器在等待过程中,一旦发现有done1文件存在,就分别对分配给自己的ip文件进行处理,比如stat1就会先处理分配给自己的三个ip1进行排序去重得到一个数据,然后对分配给自己的三个ip2文件进行排序去重得到一个数据,如此反复得到5个数据,stat1可以将这5个数据记录到数据库中; stat2和stat3重复stat1的过程,分别得到5和6个数据,也同时放到同一个数据库中,这样,每天就会得到16个数据,我们将这16个数据在数据库中求和,就得到了w1~w12这12台机器上总的去重后的IP数。至此整个过程完成。
在整个过程,任何一个地方都可以设置出错判断,一旦出错可以重复几次该,比如说抓取数据文件,考虑到可能会因为网络原因,导致数据文件抓取不过来,因此可以sleep 10分钟后再去抓取,如果尝试4次都失败,就可以发送报警邮件或者报警短信通知维护人员。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15