京公网安备 11010802034615号
经营许可证编号:京B2-20210330
原来在线广告公司都是这样使用Spark处理流数据的
在Hadoop集群上部署Spark处理引擎,每天处理14TB的交易数据,这就是在线广告平台Altitude Digital最近的实践,它主要追踪用户的社交媒体数据。
AltitudeDigital首席技术官Manny Puentes透露,Spark部署会在今年四月中旬上线,公司为了成功在Hadoop系统中应用Spark Streaming模型,特地将计算节点从30扩展到50。
目前,Altitude Digital使用的是Hive数据仓库软件,这是Apache另一个开源技术,用于查询存储在集群中的数据,基于MapR Hadoop发行版。Puentes表示:“Hive是长时间运行的报表,一旦崩溃,要返回TB级别数据就得花费几个小时的时间。”在测试中,Spark Streaming查询速度是Hive的4到20倍,处理的数据集的规模和复杂度会对查询速度产生影响。
查询速度的提高对公司来讲意义重大,因为公司的分析应用程序,比如通过视频广告浏览数据优化广告位置,经常需要运行查询、等待结果、根据结果优化查询,然后再次运行。如果实践中能获得测试的性能,分析团队可能在一天之内得到复杂查询的答案,不需要再花上四五天的时间了。Puentes介绍到:“这对我们的业务来讲是很有意义的。”
流数据的多种应用方式
AltitudeDigital正在尝试集成来自多种不同的数据源的数据流,通过一定的算法,基于浏览cookie了解用户的行为。公司的另一个目标是给线上广告商更快的仪表盘访问。Puentes表示:“我们也希望能够实时反馈数据洞察力给广告商。”
Spark还只是Altitude Digital应用的技术之一,公司每天通过Spark Streaming处理交易数据的同时,也在使用Concurrent提供的开源Cascading软件来运行MapReduce批处理任务。Spark也支持批处理,而且生成处理速度是MapReduce的一百倍。但Puentes表示,他还是希望使用MapReduce容错技术确保任务完成。
Sharethrough是另一个采用了Spark Streaming的在线广告公司,它用来支持运行在AWS上的基于Cloudera的Hadoop集群。Sharethrough在2013年中期开始使用Databricks公司的Spark云部署,目前通过流处理模块每天运行500GB的互联网点击和广告可视数据。
Spark系统搭载机器学习应用程序,分析原生广告的效果。Sharethrough系统集成副总裁Rob Slifka表示,Hadoop集群部署两年以后,很明显,批导向的系统不能满足企业实时分析的需求。广告商和发行商不得不使用几小时以前的数据决定在哪里做广告,这就给广告优化带来了挑战。Slifka表示,因为Sharethrough平台支持的广告的本质决定的,这样做会很复杂。头条和触屏文本可以形成不同的组合。
数据流和点击率
这种头条-文本的方式更有效。在一次Sharethrough;进行的测试中,内部广告点击率从不足1%增长到7%,这在广告界是很大的进步。之所以采用Spark Streaming就是考虑到它能够快速识别那版广告最有效。Slifka表示:“如果你有十种组合,其中五种都不好,你一定想要快速地了解到哪五种不好。”
多亏了数据流技术,公司才能够用不同的网站用户测试不同的广告,然后快速分析结果,识别哪个广告最有效。Slifka表示:“我们从来不会选择一个单独的赢家,通过Spark Streaming,我们会采用一对组合,使其成为最好的广告。”
Russell Cardullo领导了Spark技术部署,他表示,流处理让性能检测更重要,也更有挑战性。“你需要认识到,这是要7*24小时不间断运行的。数据无时无刻不在产生,你需要及时掌握数据情况,而不是等发生问题了再去解决。”
他补充道,公司运行Spark Streaming,到目前只遇到一个处理问题,而且该问题不是由软件本身引发的,而是公司使用的为Spark提供数据的亚马逊Kinesis和RabbitMQ技术引发的。
Gartner分析师Nick Heudecker和McKnight咨询公司总裁William McKnight也指出了企业在融合大数据和流处理技术时面临的其他挑战。包括构建高可用的技术架构以应对数据处理工作负载,同时能够满足公司分析和业务处理的需求,使其能够利用流数据。Heudecker表示:“如果只加速业务流程的5%,其他95%都没有变,那就没有什么意义了。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析实战中,我们经常会遇到“多指标冗余”的问题——比如分析企业经营状况时,需同时关注营收、利润、负债率、周转率等十 ...
2026-02-04在数据分析场景中,基准比是衡量指标表现、评估业务成效、对比个体/群体差异的核心工具,广泛应用于绩效评估、业务监控、竞品对 ...
2026-02-04业务数据分析是企业日常运营的核心支撑,其核心价值在于将零散的业务数据转化为可落地的业务洞察,破解运营痛点、优化业务流程、 ...
2026-02-04在信贷业务中,违约率是衡量信贷资产质量、把控信用风险、制定风控策略的核心指标,其统计分布特征直接决定了风险定价的合理性、 ...
2026-02-03在数字化业务迭代中,AB测试已成为验证产品优化、策略调整、运营活动效果的核心工具。但多数业务场景中,单纯的“AB组差异对比” ...
2026-02-03企业战略决策的科学性,决定了其长远发展的格局与竞争力。战略分析方法作为一套系统化、专业化的思维工具,为企业研判行业趋势、 ...
2026-02-03在统计调查与数据分析中,抽样方法分为简单随机抽样与复杂抽样两大类。简单随机抽样因样本均匀、计算简便,是基础的抽样方式,但 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02B+树作为数据库索引的核心数据结构,其高效的查询、插入、删除性能,离不开节点间指针的合理设计。在日常学习和数据库开发中,很 ...
2026-01-30在数据库开发中,UUID(通用唯一识别码)是生成唯一主键、唯一标识的常用方式,其标准格式包含4个短横线(如550e8400-e29b-41d4- ...
2026-01-30商业数据分析的价值落地,离不开标准化、系统化的总体流程作为支撑;而CDA(Certified Data Analyst)数据分析师,作为经过系统 ...
2026-01-30在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27