京公网安备 11010802034615号
经营许可证编号:京B2-20210330
在用 Python(如 pandas 库)处理 Excel 数据时,“缺失值” 是高频痛点 ——Excel 表中的空白单元格、“N/A” 标记或格式错误,导入后常会转化为 pandas 中的NaN(Not a Number)值。这些缺失值若不处理,会导致统计分析偏差(如均值计算不准)、模型训练报错(如机器学习算法无法识别NaN)。而dropna作为 pandas 中删除缺失值的核心函数,是解决这一问题的关键工具。本文将从 Excel 数据缺失场景出发,全面解析dropna的作用、参数配置与实战用法,帮助读者高效完成数据清洗。
在用dropna处理缺失值前,需先明确 Excel 数据缺失的根源与影响,避免 “盲目删除” 导致数据浪费。
Excel 作为手动录入、多表合并的常用工具,缺失值的产生往往与操作场景相关:
手工录入遗漏:如员工信息表中,部分员工的 “入职日期”“联系方式” 因录入疏忽未填写,形成空白单元格;
数据格式不兼容:Excel 表中混合文本与数值格式(如 “年龄” 列既有数字 “25”,又有文本 “待补充”),导入 pandas 时文本内容会被识别为NaN;
多表合并残留:将 Excel 表 “销售数据” 与 “客户信息” 合并时,部分客户无匹配的销售记录,导致 “销售额”“订单号” 列出现NaN;
系统导出缺陷:从业务系统导出 Excel 数据时,因字段未配置或接口异常,部分列(如 “物流单号”)自动填充为空白。
若直接用含缺失值的 Excel 数据做分析,会引发一系列问题:
统计结果失真:计算 “平均销售额” 时,NaN值会被自动排除,若缺失值占比高(如 30%),会导致均值偏离真实水平;
可视化错误:用含NaN的 “月度销量” 列绘制折线图时,会出现断点或空白区域,无法完整呈现趋势;
dropna是 pandas 库中专门用于 “删除含NaN值的行或列” 的函数,其核心作用可概括为:通过灵活配置参数,选择性剔除数据集中 “无效的行 / 列”,保留完整、可用的数据样本,为后续分析(如统计计算、建模)扫清障碍。
简单来说,当 Excel 导入的数据表存在 “某行多个字段缺失”“某列全是空白” 时,dropna能帮你快速筛选出 “无缺失的有效数据”—— 例如,删除 “销售额” 列缺失的行,避免这些无效数据影响 “月度销售总额” 的计算。
处理缺失值的方法还有 “填充法”(如用均值、中位数填充,fillna函数),但dropna的优势在于:
当缺失值对应的是 “无效样本”(如 Excel 表中 “订单号” 缺失的行,无实际业务意义),删除是最合理的选择,避免填充导致的虚假数据。
dropna的灵活性体现在参数配置上 —— 通过调整axis(方向)、how(删除条件)、subset(指定列)等参数,可精准控制删除范围,避免误删有用数据。以下是 Excel 数据处理中最常用的 4 个参数:
| 参数名 | 取值范围 | 核心作用 | Excel 数据场景示例 |
|---|---|---|---|
axis |
0(默认)/1 | 0 = 删除含缺失值的行;1 = 删除含缺失值的列 | 若 Excel “用户表” 中部分行的 “手机号” 缺失→用axis=0删行;某列 “备注” 全是空白→用axis=1删列 |
how |
'any'(默认)/'all' | 'any'= 行 / 列只要有一个缺失值就删除;'all'= 行 / 列所有值都缺失才删除 | 若 Excel “订单表” 中某行 “订单号” 缺失(其他字段完整)→'any' 会删除该行;某行全空白→'all' 才删除 |
subset |
列表(如 [' 列 1',' 列 2']) | 仅针对指定列的缺失值判断是否删除行(仅对axis=0生效) |
仅关注 Excel “销售表” 中 “销售额”“订单日期” 列的缺失值→subset=['销售额','订单日期'],其他列缺失不影响 |
thresh |
整数(如 3) | 行 / 列至少有 N 个非缺失值才保留,否则删除(与how互补) |
Excel “产品表” 需保留 “产品 ID、名称、价格”3 个核心列无缺失的行→thresh=3 |
结合 Excel 数据的常见缺失情况,以下用 pandas 代码演示dropna的实战应用,从 “导入 Excel” 到 “删除缺失值” 形成完整流程。
首先需安装 pandas 和读取 Excel 的依赖库(openpyxl用于读取.xlsx 格式,xlrd用于.xls 格式):
pip install pandas openpyxl xlrd
假设我们有一份 Excel 文件sales_data.xlsx,包含 “订单号、客户 ID、销售额、订单日期、物流单号”5 列,导入后的数据如下(含缺失值):
| 订单号 | 客户 ID | 销售额 | 订单日期 | 物流单号 |
|---|---|---|---|---|
| 1001 | C001 | 500.0 | 2024-01-01 | SF123 |
| 1002 | NaN | 800.0 | 2024-01-02 | NaN |
| 1003 | C003 | NaN | 2024-01-03 | ZT456 |
| 1004 | NaN | NaN | NaN | NaN |
| 1005 | C005 | 1200.0 | 2024-01-05 | NaN |
需求:Excel 数据中,只要 “订单号、客户 ID、销售额” 等任意一列有缺失,就删除该行(确保每行数据完整)。
代码:
import pandas as pd
# 1. 导入Excel数据(指定sheet,读取.xlsx需用engine='openpyxl')
df = pd.read_excel("sales_data.xlsx", sheet_name="Sheet1", engine="openpyxl")
# 2. 查看导入后的缺失值情况
print("导入后的数据缺失值统计:")
print(df.isnull().sum()) # 输出每列缺失值数量:客户ID=2,销售额=1,物流单号=3,订单日期=1
# 3. 用dropna默认参数删除含缺失值的行(axis=0, how='any')
df_clean1 = df.dropna()
# 4. 查看清洗后的数据
print("n删除任何一列有缺失的行后:")
print(df_clean1)
# 结果:仅保留1001行(无任何缺失值),其他4行因含缺失值被删除
需求:Excel 数据中,仅当某行所有列(如 1004 行 “订单号、客户 ID” 全为NaN)都缺失时才删除,部分缺失的行(如 1002 行 “客户 ID、物流单号” 缺失)保留。
代码:
# 用how='all'删除全缺失的行
df_clean2 = df.dropna(how="all")
print("仅删除全缺失的行后:")
print(df_clean2)
# 结果:删除1004行(全缺失),保留1001、1002、1003、1005行(部分缺失)
需求:Excel 数据中,仅关注 “订单号、销售额、订单日期”3 个核心列 —— 只要这 3 列有一个缺失,就删除该行;其他列(如 “物流单号”)缺失不影响。
代码:
# 用subset指定核心列,仅判断这些列的缺失值
df_clean3 = df.dropna(subset=["订单号", "销售额", "订单日期"])
print("仅删除核心列(订单号、销售额、订单日期)有缺失的行后:")
print(df_clean3)
# 结果:删除1003行(销售额缺失)、1004行(核心列全缺失),保留1001、1002、1005行
# (1002行“客户ID、物流单号”缺失,但核心列完整,故保留)
需求:Excel 数据中,只要某行有至少 3 个列无缺失值,就保留;不足 3 个则删除(适用于 “部分字段缺失但仍有分析价值” 的场景)。
代码:
# 用thresh=3保留至少3个非缺失值的行
df_clean4 = df.dropna(thresh=3)
print("保留至少3个非缺失值的行后:")
print(df_clean4)
# 结果:
# 1001行(5个非缺失值)→ 保留;1002行(3个非缺失值)→ 保留;
# 1003行(3个非缺失值)→ 保留;1004行(0个)→ 删除;1005行(4个)→ 保留
需求:若 Excel 导入的数据中,某列(如 “备用字段”)所有值都是NaN,无任何分析价值,用dropna删除该列。
代码:
# 先模拟一列全缺失的情况(在原df中添加“备用字段”列)
df["备用字段"] = pd.NA # 新增列全为缺失值
# 用axis=1删除全缺失的列(how='all')
df_clean5 = df.dropna(axis=1, how="all")
print("删除全缺失的列后,剩余列名:")
print(df_clean5.columns.tolist())
# 结果:删除“备用字段”列,保留“订单号、客户ID、销售额、订单日期、物流单号”5列
dropna虽操作简单,但误用可能导致有用数据丢失或分析偏差,需注意以下细节:
删除前务必用df.isnull().sum()或df.isnull().mean()查看缺失值占比:
若某列缺失值占比 > 50%(如 “物流单号” 缺失 70%),删除该列更合理(避免删除大量行);
若某行缺失值仅 1 个且为非核心列(如 “备注”),优先保留该行(用fillna填充,而非dropna删除)。
dropna默认返回新的 DataFrame,不修改原始数据,需将结果赋值给变量(如df_clean = df.dropna());若想直接修改原数据,可加inplace=True参数:
df.dropna(inplace=True) # 直接在原df上删除缺失行,无需赋值
Excel 中的 “空白单元格” 导入后会成为NaN,但 “文本型无效值”(如 “无数据”“待补充”)需先转化为NaN,dropna才能识别:
# 先将Excel中的“无数据”“待补充”转化为NaN,再用dropna删除
df = pd.read_excel("sales_data.xlsx")
df = df.replace(["无数据", "待补充"], pd.NA) # 替换无效文本为NaN
df_clean = df.dropna()
dropna(axis=1)删除列时需格外小心 —— 即使某列当前缺失值多,但后续可能通过其他表补充(如 “物流单号” 可从物流系统补录),建议先备份原始数据,再删除列:
# 备份原始数据,再删除列
df_backup = df.copy() # 备份
df_clean = df_backup.dropna(axis=1, how="all") # 删除全缺失列
dropna的核心价值是 “快速剔除无效数据”,但并非所有缺失值场景都适用,需结合 Excel 数据的实际情况选择:
处理 Excel 导入数据时,建议遵循 “查→判→删 / 填” 的流程:
通过合理使用dropna,能有效净化 Excel 导入的数据,为后续的统计分析、可视化、建模打下坚实基础 —— 这也是数据处理中 “去伪存真” 的关键一步。

数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
尊敬的考生: 您好! 我们诚挚通知您,CDA Level III 考试大纲将于 2025 年 12 月 31 日实施重大更新,并正式启用,2026年3月考 ...
2025-12-31“字如其人”的传统认知,让不少“手残党”在需要签名的场景中倍感尴尬——商务签约时的签名歪歪扭扭,朋友聚会的签名墙不敢落笔 ...
2025-12-31在多元统计分析的因子分析中,“得分系数”是连接原始观测指标与潜在因子的关键纽带,其核心作用是将多个相关性较高的原始指标, ...
2025-12-31对CDA(Certified Data Analyst)数据分析师而言,高质量的数据是开展后续分析、挖掘业务价值的基础,而数据采集作为数据链路的 ...
2025-12-31在中介效应分析(或路径分析)中,间接效应是衡量“自变量通过中介变量影响因变量”这一间接路径强度与方向的核心指标。不同于直 ...
2025-12-30数据透视表是数据分析中高效汇总、多维度分析数据的核心工具,能快速将杂乱数据转化为结构化的汇总报表。在实际分析场景中,我们 ...
2025-12-30在金融投资、商业运营、用户增长等数据密集型领域,量化策略凭借“数据驱动、逻辑可验证、执行标准化”的优势,成为企业提升决策 ...
2025-12-30CDA(Certified Data Analyst),是在数字经济大背景和人工智能时代趋势下,源自中国,走向世界,面向全行业的专业技能认证,旨 ...
2025-12-29在数据分析领域,周期性是时间序列数据的重要特征之一——它指数据在一定时间间隔内重复出现的规律,广泛存在于经济、金融、气象 ...
2025-12-29数据分析师的核心价值在于将海量数据转化为可落地的商业洞察,而高效的工具则是实现这一价值的关键载体。从数据采集、清洗整理, ...
2025-12-29在金融、零售、互联网等数据密集型行业,量化策略已成为企业提升决策效率、挖掘商业价值的核心工具。CDA(Certified Data Analys ...
2025-12-29CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-26在数字化转型浪潮下,审计行业正经历从“传统手工审计”向“大数据智能审计”的深刻变革。教育部发布的《大数据与审计专业教学标 ...
2025-12-26统计学作为数学的重要分支,是连接数据与决策的桥梁。随着数据规模的爆炸式增长和复杂问题的涌现,传统统计方法已难以应对高维、 ...
2025-12-26数字化浪潮席卷全球,数据已成为企业核心生产要素,“用数据说话、用数据决策”成为企业生存与发展的核心逻辑。在这一背景下,CD ...
2025-12-26箱线图(Box Plot)作为数据分布可视化的核心工具,凭借简洁的结构直观呈现数据的中位数、四分位数、异常值等关键信息,广泛应用 ...
2025-12-25在数据驱动决策的时代,基于历史数据进行精准预测已成为企业核心需求——无论是预测未来销售额、客户流失概率,还是产品需求趋势 ...
2025-12-25在数据驱动业务的实践中,CDA(Certified Data Analyst)数据分析师的核心工作,本质上是通过“指标”这一数据语言,解读业务现 ...
2025-12-25在金融行业的数字化转型进程中,SQL作为数据处理与分析的核心工具,贯穿于零售银行、证券交易、保险理赔、支付结算等全业务链条 ...
2025-12-24在数据分析领域,假设检验是验证“数据差异是否显著”的核心工具,而独立样本t检验与卡方检验则是其中最常用的两种方法。很多初 ...
2025-12-24