京公网安备 11010802034615号
经营许可证编号:京B2-20210330
CDA数据分析师 出品
作者:曹鑫
我知道,一说到数字经济,数字化转型,数字化人才,你第一感觉就是:跟我有半毛钱关系。诶,不要着急!
至少 Excel 你天天在用吧?只不过你可能用的最多的就是复制粘贴记录一下数据。你不要怀疑,这高低、左右,都算是数字化技能!因为数字化技能的核心就是数据能力,而且数据能力贯穿着公司业务全流程的每个环节,这也是为什么说,数字经济时代的新生产资料是数据!看看这张数据能力图,分成四个层面:需求层、数据层、分析层、输出层;第一层是需求层,是目标确定的过程,对整个业务进行拆解,为数据工作指明方向;第二层是数据层,包含数据获取、数据清洗、数据整;第三层是分析层,包含描述性统计制图、业务根因分析,这里就涉及到专业的算法;第四层是输出层,面向管理层、决策层、执行层,给出不同的数据报告、业务仪表盘、落地模型等。
今天遇到一个任务是「财务对账」。
对账,可以说是财务最常做的一个工作,也是基础工作之一。就算你们公司的系统已经非常完整了,你还是会遇到两个表要核对差异在哪里的情况。你会怎么做?
当数据量不大的时候,我们最简单的做法,也是最符合第一直觉的做法,把两张表放到一起,一左一右,左边有个268,右边有个268,这就对上了;左边有个20.1,右边没找到20.1,这就是多记了,但是右边有个21,所以也有可能是错记了;左边有个100,右边也有个100,左边还有个100,右边没有100了,那这里可能是多记了。剩下右边还有个8,那这就是左边漏记了,这样就把不同情况都分析出来了。
但如果数据量大了,几百上千行,甚至几万行,这个方法就有点累了,比如我们现在有的两张数据表,一份公司银行存款明细账和一份银行流水,我们需要将公司银行存款明细中的借方与银行流水的收款金额进行核对。别说几百上千行了,光看这个100多行,我就觉得看着累。
如果用 Python 来做,效率就会大大提升。我们先看看Python实现的逻辑,还是之前的例子:我们要看数据有没有重复,就是统计每个数据在两个表分别出现的次数,然后两个表中的个数相减。
知道了逻辑,我们就可以来操作了。先看看效果,就是这30多行代码,作为新人,你别怕,我们先看看有多爽!
import pandas as pd
# 读取公司明细账
df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
# 读取银行流水
df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
# 将两张表的借方-收款拼接
mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0]
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
# 判断金额出现的次数
df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
# 重复次数不为0,就是没有对上
df_result = df_count[df_count['重复次数'] != 0].copy()
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 列出两张表中具体的行 # 公司银行存款明细账中的多记/错记 df_gs[df_gs['借方'] == 1.00]
# 银行流水中的漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
读取两张 Excel 表的数据
import pandas as pd # 读取公司明细账 df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
df_gs.head()
# 读取银行流水 df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_yh.head()
数据清洗:修改列名
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_gs_jie.head()
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
df_yh_shou.head()
拼接两张表
# 将两张表的借方-收款拼接 mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0] # 剔除金额为 0 的行 mergedStuff_jie_shou
根据金额进行统计
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
df_count
# 判断金额出现的次数 df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
df_count
# 重复次数不为0,就是没有对上 df_result = df_count[df_count['重复次数'] != 0].copy()
df_result
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 多记/错记 df_gs[df_gs['借方'] == 1.00]
# 漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
未来,你只要修改好需要读取的表,确定需要比对的列,然后一键运行,结果一瞬间就出来了,而且你之后每个月,每周,甚至每天要比对的时候,你只需要确定好你要比对的表,比对的数据列,就可以快速得到结果,代码复用效率极高。你还可以进一步查看各自表中具体行的数据,方便你具体判断。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27