
作者 | Edwin Lisowski
编译 | CDA数据分析师
XGBoost and Random Forest with Bayesian Optimisation
在这篇文章中,我们将介绍带有贝叶斯优化算法的两种流行的算法即XGBoost和随机森林,并指出这些算法的优缺点。XGBoost(XGB)和随机森林(RF)都是集成学习方法,并通过组合各个决策树的输出(我们假设基于树的XGB或RF)来预测(分类或回归)。
让我们深入比较一下 - XGBoost与Random Forest
XGBoost或Gradient Boosting
XGBoost每次构建一个决策树,每一个新的树都修正以前训练过的决策树所产生的错误。
XGBoost应用程序的示例
在Addepto,我们使用XGBoost模型来解决异常检测问题,例如在监督学习方法中。在这种情况下,XGB非常有用,因为数据集通常非常不平衡。此类数据集的示例是移动应用中的用户/消费者交易,能量消耗或用户行为。
优点
由于通过优化目标函数导出了增强树,基本上XGB可以用来解决几乎所有可以写出渐变的目标函数。这包括排名和泊松回归等内容,RF难以实现。
缺点
如果数据有噪声,XGB模型对过度拟合更敏感。由于树木是按顺序建造的,因此培训通常需要更长时间。GBM比RF更难调整。通常有三个参数:树的数量,树的深度和学习率,并且构建的每个树通常是浅的。
随机森林(RF)使用随机数据样本独立训练每棵树。这种随机性有助于使模型比单个决策树更健壮。由于RF不太可能过度拟合训练数据。
随机森林应用示例
随机森林差异性已被用于各种应用,例如,基于组织标记数据找到患者群。在以下两种情况下,随机森林模型对于这种应用非常有吸引力:
我们的目标是为具有强相关特征的高维问题提供高预测精度。
我们的数据集非常嘈杂,并且包含许多缺失值,例如,某些属性是分类或半连续的。
优点
随机森林中的模型调整比XGBoost更容易。在RF中,我们有两个主要参数:每个节点要选择的特征数量和决策树的数量。RF比XGB更难装配。
缺点
随机森林算法的主要限制是大量的树可以使算法对实时预测变慢。对于包含具有不同级别数的分类变量的数据,随机森林偏向于具有更多级别的那些属性。
贝叶斯优化是一种优化功能的技术,其评估成本很高。它建立目标函数的后验分布,并使用高斯过程回归计算该分布中的不确定性,然后使用获取函数来决定采样的位置。贝叶斯优化专注于解决问题:
max f(x)(x∈A)
超参数的尺寸(x∈Rd)经常在最成功的应用d <20。
通常设置甲IA超矩形(x∈R d:ai ≤ xi ≤ bi)。目标函数是连续的,这是使用高斯过程回归建模所需的。它也缺乏像凹面或线性这样的特殊结构,这使得利用这种结构来提高效率的技术徒劳无功。贝叶斯优化由两个主要组成部分组成:用于对目标函数建模的贝叶斯统计模型和用于决定下一步采样的采集函数。
据初始空间填充实验设计评估目标后,它们被迭代地用于分配N个评估的预算的剩余部分,如下所示:
我们可以说贝叶斯优化是为黑盒无导数全局优化而设计来总结这个问题。它在机器学习中调整超参数非常受欢迎。
下面是整个优化的图形摘要:具有后验分布的高斯过程、观察和置信区间以及效用函数,其中最大值表示下一个样本点。
由于效用函数,贝叶斯优化在调整机器学习算法的参数方面比网格或随机搜索技术更有效。它可以有效地平衡“探索”和“利用”,找到全局最优。
为了呈现贝叶斯优化,我们使用用Python编写的BayesianOptimization库来调整随机森林和XGBoost分类算法的超参数。我们需要通过pip安装它:
pip install bayesian-optimization
现在让我们训练我们的模型。首先我们导入所需的库:
#Import libraries
import pandas as pd
import numpy as np
from bayes_opt import BayesianOptimization
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
我们定义了一个函数来运行贝叶斯优化给定数据,优化函数及其超参数:
#Bayesian optimization
def bayesian_optimization(dataset, function, parameters):
X_train, y_train, X_test, y_test = dataset
n_iterations = 5
gp_params = {"alpha": 1e-4}
BO = BayesianOptimization(function, parameters)
BO.maximize(n_iter=n_iterations, **gp_params)
return BO.max
我们定义了优化函数,即随机森林分类器及其超参数nestimators,maxdepth和minsamplessplit。另外,我们使用给定数据集上的交叉验证分数的平均值:
def rfc_optimization(cv_splits):
def function(n_estimators, max_depth, min_samples_split):
return cross_val_score(
RandomForestClassifier(
n_estimators=int(max(n_estimators,0)),
max_depth=int(max(max_depth,1)),
min_samples_split=int(max(min_samples_split,2)),
n_jobs=-1,
random_state=42,
class_weight="balanced"),
X=X_train,
y=y_train,
cv=cv_splits,
scoring="roc_auc",
n_jobs=-1).mean()
parameters = {"n_estimators": (10, 1000),
"max_depth": (1, 150),
"min_samples_split": (2, 10)}
return function, parameters
类似地,我们为XGBoost分类器定义函数和超参数:
def xgb_optimization(cv_splits, eval_set):
def function(eta, gamma, max_depth):
return cross_val_score(
xgb.XGBClassifier(
objective="binary:logistic",
learning_rate=max(eta, 0),
gamma=max(gamma, 0),
max_depth=int(max_depth),
seed=42,
nthread=-1,
scale_pos_weight = len(y_train[y_train == 0])/
len(y_train[y_train == 1])),
X=X_train,
y=y_train,
cv=cv_splits,
scoring="roc_auc",
fit_params={
"early_stopping_rounds": 10,
"eval_metric": "auc",
"eval_set": eval_set},
n_jobs=-1).mean()
parameters = {"eta": (0.001, 0.4),
"gamma": (0, 20),
"max_depth": (1, 2000)}
return function, parameters
现在基于选择的分类器,我们可以优化它并训练模型:
#Train model
def train(X_train, y_train, X_test, y_test, function, parameters):
dataset = (X_train, y_train, X_test, y_test)
cv_splits = 4
best_solution = bayesian_optimization(dataset, function, parameters)
params = best_solution["params"]
model = RandomForestClassifier(
n_estimators=int(max(params["n_estimators"], 0)),
max_depth=int(max(params["max_depth"], 1)),
min_samples_split=int(max(params["min_samples_split"], 2)),
n_jobs=-1,
random_state=42,
class_weight="balanced")
model.fit(X_train, y_train)
return model
我们使用AdventureWorksDW2017 SQL Server数据库的视图[dbo].[vTargetMail]作为示例数据,我们可以依据个人数据预测人们是否购买自行车。作为贝叶斯优化的结果,我们提取出了连续样本:
我们可以看到贝叶斯优化在第23步中找到了最佳参数,在测试数据集上得出0.8622 AUC分数。如果要检查更多样品,这个结果可能会更高。我们优化的随机森林模型具有以下ROC AUC曲线:
我们提出了一种使用贝叶斯优化在机器学习中调整超参数的简单方法,贝叶斯优化是一种更快的方法,可以找到最优值,而且比网格或随机搜索方法更先进。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08在商业竞争日益激烈的当下,“用数据说话” 已从企业的 “加分项” 变为 “生存必需”。然而,零散的数据分析无法持续为业务赋能 ...
2025-09-08随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05CDA 数据分析师:以六大分析方法构建数据驱动业务的核心能力 在数据驱动决策成为企业共识的当下,CDA(Certified Data Analyst) ...
2025-09-05SQL 日期截取:从基础方法到业务实战的全维度解析 在数据处理与业务分析中,日期数据是连接 “业务行为” 与 “时间维度” 的核 ...
2025-09-04在卷积神经网络(CNN)的发展历程中,解决 “梯度消失”“特征复用不足”“模型参数冗余” 一直是核心命题。2017 年提出的密集连 ...
2025-09-04CDA 数据分析师:驾驭数据范式,释放数据价值 在数字化转型浪潮席卷全球的当下,数据已成为企业核心生产要素。而 CDA(Certified ...
2025-09-04K-Means 聚类:无监督学习中数据分群的核心算法 在数据分析领域,当我们面对海量无标签数据(如用户行为记录、商品属性数据、图 ...
2025-09-03特征值、特征向量与主成分:数据降维背后的线性代数逻辑 在机器学习、数据分析与信号处理领域,“降维” 是破解高维数据复杂性的 ...
2025-09-03CDA 数据分析师与数据分析:解锁数据价值的关键 在数字经济高速发展的今天,数据已成为企业核心资产与社会发展的重要驱动力。无 ...
2025-09-03解析 loss.backward ():深度学习中梯度汇总与同步的自动触发核心 在深度学习模型训练流程中,loss.backward()是连接 “前向计算 ...
2025-09-02要解答 “画 K-S 图时横轴是等距还是等频” 的问题,需先明确 K-S 图的核心用途(检验样本分布与理论分布的一致性),再结合横轴 ...
2025-09-02CDA 数据分析师:助力企业破解数据需求与数据分析需求难题 在数字化浪潮席卷全球的当下,数据已成为企业核心战略资产。无论是市 ...
2025-09-02Power BI 度量值实战:基于每月收入与税金占比计算累计税金分摊金额 在企业财务分析中,税金分摊是成本核算与利润统计的核心环节 ...
2025-09-01巧用 ALTER TABLE rent ADD INDEX:租房系统数据库性能优化实践 在租房管理系统中,rent表是核心业务表之一,通常存储租赁订单信 ...
2025-09-01CDA 数据分析师:企业数字化转型的核心引擎 —— 从能力落地到价值跃迁 当数字化转型从 “选择题” 变为企业生存的 “必答题”, ...
2025-09-01数据清洗工具全景指南:从入门到进阶的实操路径 在数据驱动决策的链条中,“数据清洗” 是决定后续分析与建模有效性的 “第一道 ...
2025-08-29机器学习中的参数优化:以预测结果为核心的闭环调优路径 在机器学习模型落地中,“参数” 是连接 “数据” 与 “预测结果” 的关 ...
2025-08-29