京公网安备 11010802034615号
经营许可证编号:京B2-20210330
关于推荐算法的一些思考
最近做了一个交叉销售的项目,梳理了一些关键点,分享如下,希望对大家有所启发
核心目标:在有限资源下,尽可能的提供高转化率的用户群,辅助业务增长
初步效果:商家ROI值为50以上,用户日转化率提升10倍以上,用户日最低转化效果5pp以上
以下为正文:
数据准备:
1.商品相关性
存在商品A,B,C...,商品之间用户会存在行为信息的关联度,这边可以参考协调过滤算法中的Item-based,这边拓展为用户在不同商品之间的操作行为的差异性。

可以形成如下的特征矩阵:
这边相关的常见度量方式有以下几种:
a.距离衡量
包括浏览、点击、搜索等等各种行为的欧式、马氏、闵式、切比雪夫距离、汉明距离计算
b.相似度衡量
包括余弦相似度、杰卡德相似度衡量
c.复杂衡量
包括相关性衡量,熵值衡量,互信息量衡量,相关距离衡量
2.商品行为信息
探求商品及其对应行为信息的笛卡尔积的映射关系,得到一个商品+用户的行为魔方
商品集合:{商品A、商品B、...}
商品属性集合:{价格、是否打折、相比其他电商平台的比价、是否缺货...}
用户行为集合:{浏览次数、浏览时长、末次浏览间隔、搜索次数、末次搜索间隔...}
通过商品集合*商品属性集合*用户行为集合,形成高维的商品信息魔方,再通过探查算法,筛选优秀表现的特征,这里推荐的有pca,randomforest的importance,lasso变量压缩,相关性压缩,逐步回归压缩等方法,根据数据的属性特点可适当选取方法
最后,我们会得到如下一个待选特征组:
3.商品购买周期
针对每一件商品,都是有它自身的生命周期的,比如,在三个月内买过冰箱的用户,95%以上的用户是不会选择二次购买的;而在1个月的节点上,会有20%的用户会选择二次购买生活用纸。所以我们需要做的一件事情就是不断更新,平台上面每个类目下面的商品的自身生命周期。除此之外,考虑在过渡时间点,用户的需求变化情况,是否可以提前触发需求;这边利用,艾宾浩斯遗忘曲线和因子衰减规律拟合:
确定lamda和b,计算每个用户对应的每个类目,当前时间下的剩余价值:f(最高价值)*lamda*b
业务运营过程中,通过数据常规可以得到1.基础结论,2.挖掘结论。基础结论就是统计结论,比如昨日订单量,昨日销售量 ,昨日用户量;挖掘结论就是深层结论,比如昨日活跃用户数,每日预估销售量,用户生命周期等
存在如下的探索形式,这是一个漫长而又非常有价值的过程:
模型整合
再确定以上四大类的数据特征之后,我们通过组合模型的方法,判断用户的交叉销售结果
1.cart regression
确保非线性密度均匀数据拟合效果,针对存在非线性关系且数据可被网格切分的产业用户有高的预测能力
2.ridge regression
确保可线性拟合及特征繁多数据的效果,针对存在线性关系的产业用户有高的预测能力
3.Svm-liner
确保线性且存在不可忽视的异常点的数据拟合效果,针对存在异常用户较多的部分产业用户有高的预测能力
4.xgboost
确保数据复杂高维且无明显关系的数据拟合效果,针对存在维度高、数据杂乱、无模型规律的部分产业用户有高的预测能力
以上的组合模型并非固定,也并非一定全部使用,在确定自身产业的特点后,择优选择,然后采取投票、加权、分组等组合方式产出结果即可。
附上推荐Rcode简述,
cart regression:
library(rpart)
fit <- rpart(y~x, data=database, method="class",control=ct, parms = list(prior = c(0.7,0.3), split = "information"));
## xval是n折交叉验证
## minsplit是最小分支节点数,设置后达不到最小分支节点的话会继续分划下去
## minbucket:叶子节点最小样本数
## maxdepth:树的深度
## cp全称为complexity parameter,指某个点的复杂度,对每一步拆分,模型的拟合优度必须提高的程度
## kyphosis是rpart这个包自带的数据集
## na.action:缺失数据的处理办法,默认为删除因变量缺失的观测而保留自变量缺失的观测。
## method:树的末端数据类型选择相应的变量分割方法:
## 连续性method=“anova”,离散型method=“class”,计数型method=“poisson”,生存分析型method=“exp”
## parms用来设置三个参数:先验概率、损失矩阵、分类纯度的度量方法(gini和information)
## cost我觉得是损失矩阵,在剪枝的时候,叶子节点的加权误差与父节点的误差进行比较,考虑损失矩阵的时候,从将“减少-误差”调整为“减少-损失”
ridge regression:
library(glmnet)
glmmod<-glmnet(x,y,family = 'guassian',alpha = 0)
最小惩罚:
glmmod.min<-glmnet(x,y,family = 'gaussian',alpha = 0,lambda = glmmod.cv$lambda.min)
1个标准差下的最小惩罚:
glmmod.1se<-glmnet(x,y,family = 'gaussian',alpha = 0,lambda = glmmod.cv$lambda.1se)
Svm-liner :
library(e1071)
svm(x, y, scale = TRUE, type = NULL, kernel = "",degree = 3, gamma = if (is.vector(x)) 1 else 1 / ncol(x),coef0 = 0, cost = 1, nu = 0.5, subset, na.action = na.omit)
##type用于指定建立模型的类别:C-classification、nu-classification、one-classification、eps-regression和nu-regression
##kernel是指在模型建立过程中使用的核函数
##degree参数是指核函数多项式内积函数中的参数,其默认值为3
##gamma参数给出了核函数中除线性内积函数以外的所有函数的参数,默认值为l
##coef0参数是指核函数中多项式内积函数与sigmoid内积函数中的参数,默认值为0
##参数cost就是软间隔模型中的离群点权重
##参数nu是用于nu-regression、nu-classification和one-classification类型中的参数
xgboost:
library(xgboost)
xgb <- xgboost(data = data.matrix(x[,-1]), label = y, eta = 0.1,max_depth = 15, nround=25, subsample = 0.5,colsample_bytree = 0.5,seed = 1,eval_metric = "merror",objective = "multi:softprob",num_class = 12, nthread = 3)
##eta:默认值设置为0.3。步长,控制速度及拟合程度
##gamma:默认值设置为0。子树叶节点个数
##max_depth:默认值设置为6。树的最大深度
##min_child_weight:默认值设置为1。控制子树的权重和
##max_delta_step:默认值设置为0。控制每棵树的权重
##subsample: 默认值设置为1。抽样训练占比
##lambda and alpha:正则化
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16