京公网安备 11010802034615号
经营许可证编号:京B2-20210330
CDA数据分析师 出品
作者:曹鑫
我知道,一说到数字经济,数字化转型,数字化人才,你第一感觉就是:跟我有半毛钱关系。诶,不要着急!
至少 Excel 你天天在用吧?只不过你可能用的最多的就是复制粘贴记录一下数据。你不要怀疑,这高低、左右,都算是数字化技能!因为数字化技能的核心就是数据能力,而且数据能力贯穿着公司业务全流程的每个环节,这也是为什么说,数字经济时代的新生产资料是数据!看看这张数据能力图,分成四个层面:需求层、数据层、分析层、输出层;第一层是需求层,是目标确定的过程,对整个业务进行拆解,为数据工作指明方向;第二层是数据层,包含数据获取、数据清洗、数据整;第三层是分析层,包含描述性统计制图、业务根因分析,这里就涉及到专业的算法;第四层是输出层,面向管理层、决策层、执行层,给出不同的数据报告、业务仪表盘、落地模型等。
今天遇到一个任务是「财务对账」。
对账,可以说是财务最常做的一个工作,也是基础工作之一。就算你们公司的系统已经非常完整了,你还是会遇到两个表要核对差异在哪里的情况。你会怎么做?
当数据量不大的时候,我们最简单的做法,也是最符合第一直觉的做法,把两张表放到一起,一左一右,左边有个268,右边有个268,这就对上了;左边有个20.1,右边没找到20.1,这就是多记了,但是右边有个21,所以也有可能是错记了;左边有个100,右边也有个100,左边还有个100,右边没有100了,那这里可能是多记了。剩下右边还有个8,那这就是左边漏记了,这样就把不同情况都分析出来了。
但如果数据量大了,几百上千行,甚至几万行,这个方法就有点累了,比如我们现在有的两张数据表,一份公司银行存款明细账和一份银行流水,我们需要将公司银行存款明细中的借方与银行流水的收款金额进行核对。别说几百上千行了,光看这个100多行,我就觉得看着累。
如果用 Python 来做,效率就会大大提升。我们先看看Python实现的逻辑,还是之前的例子:我们要看数据有没有重复,就是统计每个数据在两个表分别出现的次数,然后两个表中的个数相减。
知道了逻辑,我们就可以来操作了。先看看效果,就是这30多行代码,作为新人,你别怕,我们先看看有多爽!
import pandas as pd
# 读取公司明细账
df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
# 读取银行流水
df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
# 将两张表的借方-收款拼接
mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0]
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
# 判断金额出现的次数
df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
# 重复次数不为0,就是没有对上
df_result = df_count[df_count['重复次数'] != 0].copy()
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 列出两张表中具体的行 # 公司银行存款明细账中的多记/错记 df_gs[df_gs['借方'] == 1.00]
# 银行流水中的漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
读取两张 Excel 表的数据
import pandas as pd # 读取公司明细账 df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
df_gs.head()
# 读取银行流水 df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_yh.head()
数据清洗:修改列名
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_gs_jie.head()
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
df_yh_shou.head()
拼接两张表
# 将两张表的借方-收款拼接 mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0] # 剔除金额为 0 的行 mergedStuff_jie_shou
根据金额进行统计
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
df_count
# 判断金额出现的次数 df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
df_count
# 重复次数不为0,就是没有对上 df_result = df_count[df_count['重复次数'] != 0].copy()
df_result
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 多记/错记 df_gs[df_gs['借方'] == 1.00]
# 漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
未来,你只要修改好需要读取的表,确定需要比对的列,然后一键运行,结果一瞬间就出来了,而且你之后每个月,每周,甚至每天要比对的时候,你只需要确定好你要比对的表,比对的数据列,就可以快速得到结果,代码复用效率极高。你还可以进一步查看各自表中具体行的数据,方便你具体判断。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14