京公网安备 11010802034615号
经营许可证编号:京B2-20210330
机器学习实践中应避免的7种常见错误
在机器学习领域,每个给定的建模问题都存在几十种解法,本文作者认为,模型算法的假设并不一定适用于手头的数据;在追求模型最佳性能时,重要的是选择适合数据集(尤其是“大数据”)的模型算法。
统计建模和工程开发很相似。
在工程开发中,人们有多种方法搭建一套键-值存储系统,每种设计针对使用模式有一套不同的假设。在统计建模中,也有很多算法来构造一个分类器,每种算法对数据也有各自的假设集合。
当处理少量数据时,因为实验成本很低,我们尽可能多的尝试各种算法,从而选出效果最优的算法。但提到“大数据”,提前分析数据,然后设计相应“管道”模型(预处理,建模,优化算法,评价,产品化)是事半功倍的。
正如在我以前的文章里提到,每个给定的建模问题都存在几十种解法。每个模型会提出不同的假设条件,我们也很难直观辨别哪些假设是合理的。在业界,大多数从业人员倾向于挑选他们熟悉的建模算法,而不是最适合数据集的那个。在这篇文章中,我将分享一些常见的认识误区(要避免的)。在今后的文章中再介绍一些最佳实践方法(应该做的)。
1. 想当然地使用默认损失函数
很多从业者喜欢用默认的损失函数(比如平方误差)来训练和选择最优模型。事实上,默认的损失函数很少能满足我们的业务需求。拿诈骗检测来说。当我们检测诈骗交易时,我们的业务需求是尽量减少诈骗带来的损失。然而现有二元分类器默认的损失函数对误报和漏报的危害一视同仁。对于我们的业务需求,损失函数不仅对漏报的惩罚要超过误报,对漏报的惩罚程度也要和诈骗金额成比例。而且,诈骗检测的训练数据集往往正负样本极度不均衡。在这种情况下,损失函数就要偏向于照顾稀少类(如通过升/降采样等)。
2. 用普通线性模型处理非线性问题
当需要构建一个二元分类器时,很多人马上就想到用逻辑回归,因为它很简单。但是,他们忘记了逻辑回归是线性模型,非线性因素的交叉特征需要靠手工编码处理。回到刚才诈骗检测的例子,要获得好的模型效果,就需要引入“帐单地址=送货地址 && 交易金额<$ 50”之类的高阶交叉特征。因此,在处理包含交叉特征的问题上我们应该尽可能选择非线性模型,比如有核函数的SVM,或者基于树的分类器。
3.忽视异常值
异常值很有意思。根据上下文情况,它们要么需要被特别处理,要么应该被完全忽略。就拿收入预测来说。如果观察到收入有异常尖峰,我们可能要加倍注意他们,并分析是什么原因造成这些峰值。但如果异常值是由于机械误差、测量误差或者其它任何非普遍化因素导致的,那我们最好在准备训练数据之前过滤掉这些异常值。
有些模型算法对异常值非常灵敏。比如,AdaBoost 会对它们“倍加关注”,赋予一个相当大的权重值。相反,决策树就简单地把它们当做错误分类来处理。如果数据集包含相当数量的异常值,那么,使用一种具有异常值鲁棒性的建模算法或直接过滤掉异常值是非常重要的。
4. 样本数远小于特征数时使用高方差模型
SVM是最流行的建模算法之一,它的强大功能之一就在于用不同核函数去拟合模型。SVM内核被认为是可以自发组合现有特征,从而形成更高维度特征空间的方法。由于获得这项强大功能的代价几乎忽略不计,大多数人在训练SVM模型时默认使用核函数。然而,当训练样本数远远少于特征维度时(n<<p)—— 常见于医学数据——高维特征空间数据过拟合风险会随之增加。事实上,在上述情况下我们应该完全避免使用高方差模型。
5. 不做标准化的L1/L2正则化
使用L1或L2正则化是线性回归或逻辑回归惩罚权重系数值过大的常用方法。然而,许多人在使用这些正则化方法时都没有意识到标准化的重要性。
再回到诈骗检测,设想一个把交易金额作为特征的线性回归模型。如果不做正则化,当交易金额以美元为单位时,其拟合系数将会是以美分为单位时的100倍。同时,因为L1/L2正则化对系数值大的项惩罚更重,美元作为单位时交易金额这个维度将会受到更多的惩罚。因此,正则化并不是一视同仁,它往往在更小尺度上惩罚特征。为了缓解这一问题,需要在预处理过程中标准化所有特征,使它们处在平等的位置。
6.不考虑线性相关就使用线性模型
假设构建一个含有X1和X2两个变量的线性模型,真实的模型是Y = X1 + X2。理想情况下,如果数据仅含有少量噪点,线性回归模型能够还原真实模型。然而,如果X1和X2存在线性相关,对于大多数优化算法而言,无论Y = 2 * X1 , Y = 3 * X1-X2 还是 Y = 100 * X1-99 * X2效果都一样好。尽管这个问题没有造成我们预测的偏差,看上去它似乎并无大碍。但是,它使问题变得病态了,因为系数权重无法得到解释。
7. 把线性模型或者逻辑回归模型系数的绝对值解释为特征重要性
因为很多现成的线性回归方法返回每个系数的p值,很多人就认为系数的绝对值越大,对应的特征就发挥更大作用。事实并非如此,因为一方面缩放变量就会改变系数绝对值,另一方面如果特征是线性相关的,其系数可以从一维特征转移到另一维特征。此外,数据集包含的特征维度越多,特征之间就越有可能线性相关,用系数解释特征重要性就越不靠谱。
以上就是机器学习实践操作中的7个常见错误。这个列表并不完整,它只是激发读者去思考,模型算法的假设并不一定适用于手头的数据。在追求模型最佳性能时,重要的是选择适合数据的模型算法,而不是你最熟悉的那个。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14