
使用R语言实现数据分段
今天跟大家讲讲我工作中用到的数据分段,数据分段一般在什么地方会使用到呢?评分。之前写过一篇《实战: RFM》模型使用,那篇文章就详细介绍了CRM(客户关系管理)分析中关于RFM的应用。应用中就提到如何对R(最近一次消费距当前的时间间隔)、F(时间段内的消费频次)和M(时间段内的消费总额)指标进行分段,形成三种得分指标,最后根据得分指标计算出每个用户的总得分,从而可以计算用户的价值高低。
本文与之前提到的文章不同之处在于脚本的更改,使脚本更具灵活性。《实战: RFM模型使用》文中对R、F和M分段使用for循环,而且需要对每一个指标做循环,如果某个数据框的字段非常多,这样用for循环就显得非常麻烦。所以就有必要写一段更灵活的连续变量分段操作的R脚本。这里用案例说明一下数据分段操作:
#随机参数一列会员的消费总额
set.seed(1234)
Money <- c(round(runif(n = 5000, min = 56, max = 9143)), round(rnorm(n = 5000, mean = 892, sd = 23)))
#使用《实战: RFM模型使用》的分段方法,这里分成10段,尽量保证每段中的数据量大致相当
library(Hmisc)
#使用cut2()函数对数据进行分段
M_X <- cut2(x = Money, g = 10, onlycuts = TRUE)
#使用for循环将每一段范围值设定一个评分,即1:10分
M_score <- 0
for(i in 1:10) {
M_score[Money >= M_X[i] & Money < M_X[i+1]] = i
#由于范围Money < M_X[i+1]不包含最后一个值,故另外计算
M_score[Money == M_X[11]] = 10
}
table(M_score)
通过上面的方法,可以将连续型数据分成n段,从案例返回的结果可知,10段中的样本量基本相当,可以视作分段成功。下面再看看自定义函数实现的分段:
#自定义得分函数,x为目标向量,g为所需分段数量
Score_function <- function(x,g = 10){
require(Hmisc)
#计算分段的切割点
cuts <- cut2(x,g = g, onlycuts = TRUE)
#将所需结果存放在res数据框中
res <- data.frame(x=x, cut = cut2(x, cuts = cuts),score = as.numeric(cut2(x, cuts = cuts)))
#这里返回res数据框中的评分字段
return(res[,'score'])
}
M_score2 <- Score_function(x = Money, g = 10)
table(M_score2)
同样,分段的结果与《实战: RFM模型使用》脚本的结果一致,这里说一下自定义函数的优势:
1)可以灵活的更改分组数量,即g参数
2)不需要循环,速度得到提升
3)可以结合sapply()函数,应用于大型数据框(高维数据),从而避免对每个字段都计算一次for循环
下面创建一个数据框,来验收一下自定义函数的效果:
set.seed(1234)
x1 <- round(rnorm(n = 5000, mean = 125, sd = 30))
x2 <- round(runif(n = 5000, min = 10, max = 100))
x3 <- round(runif(n = 5000, min = 100, max = 1000))
x4 <- round(rnorm(n = 5000, mean = 100, sd = 10))
df <- data.frame(x1 = x1, x2 = x2, x3 = x3, x4 = x4)
#结合sapply()函数
df2 <- sapply(df, Score_function)
head(df2)
df2 <- as.data.frame(df2)
table(df2$x1);table(df2$x2);table(df2$x3);table(df2$x4)
如果使用《实战: RFM模型使用》的方法,4个变量需要单独拿出来做4次for循环。如果你觉得还可以再套一个循环,这样就可以不用单独4次for循环了,问题是这样做会大大降低计算效率,影响速度。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13