京公网安备 11010802034615号
经营许可证编号:京B2-20210330
提到噪声,你会想到什么?刺耳的,高分贝的声音?总之就是不好的,不想接受的声音。小编今天跟大家分享的就是python数据清洗中的噪声数据,对于这些噪声数据我们应该怎样检测和处理呢?下面跟小编一起来看吧。
一、什么是噪声数据
噪声数据Noisy Data,噪声值,指的是数据中存在着一个或中者几个错误的,或者偏离期望值的数据,又可以叫做异常值、或者离群值(outlier),这些数据会对数据的分析造成了干扰,我们需要在python数据清洗时将这些数据清洗掉。
举一个最简单的例子来理解噪声数据,在一份统计顾客年龄的名单中,有数据为顾客年龄:-50.显然这个数据就是噪声数据。
二、噪声数据检测
噪声数据的检测方法有很多,小编这这里介绍三种最常用的方法。
1.3∂原则
数据需要服从正态分布。若一个数据分布近似正态,则大约 68% 的数据值会在均值的一个标准差范围内,大约 95% 会在两个标准差范围内,大约 99.7% 会在三个标准差范围内。在3∂原则下,异常值如超过3倍标准差,那么可以将其视为异常值。如果数据不服从正态分布,我们就可以通过远离平均距离多少倍的标准差来判定(多少倍的取值需要根据经验和实际情况来决定)。
2.箱线图是通过数据集的四分位数形成的图形化描述。是非常简单而且效的可视化离群点的一种方法。上下须为数据分布的边界,只要是高于上须,或者是低于下触须的数据点都可以认为是离群点或异常值。
下四分位数:25%分位点所对应的值(Q1)
中位数:50%分位点对应的值(Q2)
上四分位数:75%分位点所对应的值(Q3)
上须:Q3+1.5(Q3-Q1)
下须:Q1-1.5(Q3-Q1)
其中Q3-Q1表示四分位差
3.k-means
k-means是基于聚类的离群点识别方法,其主要思想是一个对象是基于聚类的离群点,如果该对象不强属于任何簇,那么该对象属于离群点。
三、噪声数据处理
噪声数据最直接简单的方法是:找到这些孤立于其他数据的记录直接删除。但是这样做有很大的缺点,很可能会都是大量有用、干净的信息。小编在这里整理了几种python数据清洗时常用的噪声数据处理方法,希望对大家有所帮助。
1.分箱
分箱法通过考察数据的“近邻”来光滑有序数据的值。有序值分布到一些桶或箱中。
分箱法包括等深分箱:每个分箱中的样本量一致;等宽分箱:每个分箱中的取值范围一致。直方图其实首先对数据进行了等宽分箱,再计算频数画图。
分箱方法是一种简单而且常用的python数据清洗方法,通过考察近邻数据来确定最终值。“分箱”其实也就是指按照属性值划分的子区间,一个属性值如果处于某个子区间范围内,就当做把该属性值放进这个子区间所代表的“箱子”内。按照一定的规则将待处理的数据(某列属性值)放进一些箱子中,考察每个箱子里的数据,并且采用某种方法对各个箱子中的数据分别进行处理。采用分箱技术的两个关键问题是:(1)如何分箱(2)如何对每个箱子中的数据进行平滑处理。
分箱的方法通常有4种,分别为:等深分箱法、等宽分箱法、最小熵法和用户自定义区间法。
(1)等深分箱法,又叫做统一权重,是指将数据集按记录行数分箱,每箱样本量一致。最简单的一种分箱方法。
(2)等宽分箱法,统一区间,使数据集在整个属性值的区间上平均分布,也就是每个分箱中的取值范围一致。
(3)用户自定义区间,用户可以根据实际情况自定义区间,使用这种方法能帮助当用户明确观察到某些区间范围内的数据分布。
2.回归
发现两个相关的变量之间的变化模式,通过使数据适合一个函数来平滑数据。
若是变量之间存在依赖关系,也就是y=f(x),那么就可以设法求出依赖关系f,再根据x来预测y,这也是回归问题的实质。实际问题中更常为见的假设是p(y)=N(f(x)),N为正态分布。假设y是观测值并且存在噪声数据,根据我们求出的x和y之间的依赖关系,再根据x来更新y的值,这样就能去除其中的随机噪声,这就是回归去噪的原理 。
相信读完上文,你对随机森林算法已经有了全面认识。若想进一步探索机器学习的前沿知识,强烈推荐机器学习之半监督学习课程。
学习入口:https://edu.cda.cn/goods/show/3826?targetId=6730&preview=0
涵盖核心算法,结合多领域实战案例,还会持续更新,无论是新手入门还是高手进阶都很合适。赶紧点击链接开启学习吧!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16