京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者 | Edwin Lisowski
编译 | CDA数据分析师
XGBoost and Random Forest with Bayesian Optimisation
在这篇文章中,我们将介绍带有贝叶斯优化算法的两种流行的算法即XGBoost和随机森林,并指出这些算法的优缺点。XGBoost(XGB)和随机森林(RF)都是集成学习方法,并通过组合各个决策树的输出(我们假设基于树的XGB或RF)来预测(分类或回归)。
让我们深入比较一下 - XGBoost与Random Forest
XGBoost或Gradient Boosting
XGBoost每次构建一个决策树,每一个新的树都修正以前训练过的决策树所产生的错误。
XGBoost应用程序的示例
在Addepto,我们使用XGBoost模型来解决异常检测问题,例如在监督学习方法中。在这种情况下,XGB非常有用,因为数据集通常非常不平衡。此类数据集的示例是移动应用中的用户/消费者交易,能量消耗或用户行为。
优点
由于通过优化目标函数导出了增强树,基本上XGB可以用来解决几乎所有可以写出渐变的目标函数。这包括排名和泊松回归等内容,RF难以实现。
缺点
如果数据有噪声,XGB模型对过度拟合更敏感。由于树木是按顺序建造的,因此培训通常需要更长时间。GBM比RF更难调整。通常有三个参数:树的数量,树的深度和学习率,并且构建的每个树通常是浅的。
随机森林(RF)使用随机数据样本独立训练每棵树。这种随机性有助于使模型比单个决策树更健壮。由于RF不太可能过度拟合训练数据。
随机森林应用示例
随机森林差异性已被用于各种应用,例如,基于组织标记数据找到患者群。在以下两种情况下,随机森林模型对于这种应用非常有吸引力:
我们的目标是为具有强相关特征的高维问题提供高预测精度。
我们的数据集非常嘈杂,并且包含许多缺失值,例如,某些属性是分类或半连续的。
优点
随机森林中的模型调整比XGBoost更容易。在RF中,我们有两个主要参数:每个节点要选择的特征数量和决策树的数量。RF比XGB更难装配。
缺点
随机森林算法的主要限制是大量的树可以使算法对实时预测变慢。对于包含具有不同级别数的分类变量的数据,随机森林偏向于具有更多级别的那些属性。
贝叶斯优化是一种优化功能的技术,其评估成本很高。它建立目标函数的后验分布,并使用高斯过程回归计算该分布中的不确定性,然后使用获取函数来决定采样的位置。贝叶斯优化专注于解决问题:
max f(x)(x∈A)
超参数的尺寸(x∈Rd)经常在最成功的应用d <20。
通常设置甲IA超矩形(x∈R d:ai ≤ xi ≤ bi)。目标函数是连续的,这是使用高斯过程回归建模所需的。它也缺乏像凹面或线性这样的特殊结构,这使得利用这种结构来提高效率的技术徒劳无功。贝叶斯优化由两个主要组成部分组成:用于对目标函数建模的贝叶斯统计模型和用于决定下一步采样的采集函数。
据初始空间填充实验设计评估目标后,它们被迭代地用于分配N个评估的预算的剩余部分,如下所示:
我们可以说贝叶斯优化是为黑盒无导数全局优化而设计来总结这个问题。它在机器学习中调整超参数非常受欢迎。
下面是整个优化的图形摘要:具有后验分布的高斯过程、观察和置信区间以及效用函数,其中最大值表示下一个样本点。
由于效用函数,贝叶斯优化在调整机器学习算法的参数方面比网格或随机搜索技术更有效。它可以有效地平衡“探索”和“利用”,找到全局最优。
为了呈现贝叶斯优化,我们使用用Python编写的BayesianOptimization库来调整随机森林和XGBoost分类算法的超参数。我们需要通过pip安装它:
pip install bayesian-optimization
现在让我们训练我们的模型。首先我们导入所需的库:
#Import libraries
import pandas as pd
import numpy as np
from bayes_opt import BayesianOptimization
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
我们定义了一个函数来运行贝叶斯优化给定数据,优化函数及其超参数:
#Bayesian optimization
def bayesian_optimization(dataset, function, parameters):
X_train, y_train, X_test, y_test = dataset
n_iterations = 5
gp_params = {"alpha": 1e-4}
BO = BayesianOptimization(function, parameters)
BO.maximize(n_iter=n_iterations, **gp_params)
return BO.max
我们定义了优化函数,即随机森林分类器及其超参数nestimators,maxdepth和minsamplessplit。另外,我们使用给定数据集上的交叉验证分数的平均值:
def rfc_optimization(cv_splits):
def function(n_estimators, max_depth, min_samples_split):
return cross_val_score(
RandomForestClassifier(
n_estimators=int(max(n_estimators,0)),
max_depth=int(max(max_depth,1)),
min_samples_split=int(max(min_samples_split,2)),
n_jobs=-1,
random_state=42,
class_weight="balanced"),
X=X_train,
y=y_train,
cv=cv_splits,
scoring="roc_auc",
n_jobs=-1).mean()
parameters = {"n_estimators": (10, 1000),
"max_depth": (1, 150),
"min_samples_split": (2, 10)}
return function, parameters
类似地,我们为XGBoost分类器定义函数和超参数:
def xgb_optimization(cv_splits, eval_set):
def function(eta, gamma, max_depth):
return cross_val_score(
xgb.XGBClassifier(
objective="binary:logistic",
learning_rate=max(eta, 0),
gamma=max(gamma, 0),
max_depth=int(max_depth),
seed=42,
nthread=-1,
scale_pos_weight = len(y_train[y_train == 0])/
len(y_train[y_train == 1])),
X=X_train,
y=y_train,
cv=cv_splits,
scoring="roc_auc",
fit_params={
"early_stopping_rounds": 10,
"eval_metric": "auc",
"eval_set": eval_set},
n_jobs=-1).mean()
parameters = {"eta": (0.001, 0.4),
"gamma": (0, 20),
"max_depth": (1, 2000)}
return function, parameters
现在基于选择的分类器,我们可以优化它并训练模型:
#Train model
def train(X_train, y_train, X_test, y_test, function, parameters):
dataset = (X_train, y_train, X_test, y_test)
cv_splits = 4
best_solution = bayesian_optimization(dataset, function, parameters)
params = best_solution["params"]
model = RandomForestClassifier(
n_estimators=int(max(params["n_estimators"], 0)),
max_depth=int(max(params["max_depth"], 1)),
min_samples_split=int(max(params["min_samples_split"], 2)),
n_jobs=-1,
random_state=42,
class_weight="balanced")
model.fit(X_train, y_train)
return model
我们使用AdventureWorksDW2017 SQL Server数据库的视图[dbo].[vTargetMail]作为示例数据,我们可以依据个人数据预测人们是否购买自行车。作为贝叶斯优化的结果,我们提取出了连续样本:
我们可以看到贝叶斯优化在第23步中找到了最佳参数,在测试数据集上得出0.8622 AUC分数。如果要检查更多样品,这个结果可能会更高。我们优化的随机森林模型具有以下ROC AUC曲线:
我们提出了一种使用贝叶斯优化在机器学习中调整超参数的简单方法,贝叶斯优化是一种更快的方法,可以找到最优值,而且比网格或随机搜索方法更先进。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
箱线图(Box Plot)作为一种经典的数据可视化工具,广泛应用于统计学、数据分析、科研实证等领域,核心价值在于直观呈现数据的集 ...
2026-04-27实证分析是社会科学、自然科学、经济管理等领域开展研究的核心范式,其核心逻辑是通过对多维度数据的收集、分析与解读,揭示变量 ...
2026-04-27 很多数据分析师精通Excel函数和数据透视表,但当被问到“数据从哪里来”“表和视图有什么区别”“数据库管理系统和SQL是什么 ...
2026-04-27在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17