
CDA数据分析师 出品
作者:曹鑫
我知道,一说到数字经济,数字化转型,数字化人才,你第一感觉就是:跟我有半毛钱关系。诶,不要着急!
至少 Excel 你天天在用吧?只不过你可能用的最多的就是复制粘贴记录一下数据。你不要怀疑,这高低、左右,都算是数字化技能!因为数字化技能的核心就是数据能力,而且数据能力贯穿着公司业务全流程的每个环节,这也是为什么说,数字经济时代的新生产资料是数据!看看这张数据能力图,分成四个层面:需求层、数据层、分析层、输出层;第一层是需求层,是目标确定的过程,对整个业务进行拆解,为数据工作指明方向;第二层是数据层,包含数据获取、数据清洗、数据整;第三层是分析层,包含描述性统计制图、业务根因分析,这里就涉及到专业的算法;第四层是输出层,面向管理层、决策层、执行层,给出不同的数据报告、业务仪表盘、落地模型等。
今天遇到一个任务是「财务对账」。
对账,可以说是财务最常做的一个工作,也是基础工作之一。就算你们公司的系统已经非常完整了,你还是会遇到两个表要核对差异在哪里的情况。你会怎么做?
当数据量不大的时候,我们最简单的做法,也是最符合第一直觉的做法,把两张表放到一起,一左一右,左边有个268,右边有个268,这就对上了;左边有个20.1,右边没找到20.1,这就是多记了,但是右边有个21,所以也有可能是错记了;左边有个100,右边也有个100,左边还有个100,右边没有100了,那这里可能是多记了。剩下右边还有个8,那这就是左边漏记了,这样就把不同情况都分析出来了。
但如果数据量大了,几百上千行,甚至几万行,这个方法就有点累了,比如我们现在有的两张数据表,一份公司银行存款明细账和一份银行流水,我们需要将公司银行存款明细中的借方与银行流水的收款金额进行核对。别说几百上千行了,光看这个100多行,我就觉得看着累。
如果用 Python 来做,效率就会大大提升。我们先看看Python实现的逻辑,还是之前的例子:我们要看数据有没有重复,就是统计每个数据在两个表分别出现的次数,然后两个表中的个数相减。
知道了逻辑,我们就可以来操作了。先看看效果,就是这30多行代码,作为新人,你别怕,我们先看看有多爽!
import pandas as pd
# 读取公司明细账
df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
# 读取银行流水
df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
# 将两张表的借方-收款拼接
mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0]
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
# 判断金额出现的次数
df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
# 重复次数不为0,就是没有对上
df_result = df_count[df_count['重复次数'] != 0].copy()
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 列出两张表中具体的行 # 公司银行存款明细账中的多记/错记 df_gs[df_gs['借方'] == 1.00]
# 银行流水中的漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
读取两张 Excel 表的数据
import pandas as pd # 读取公司明细账 df_gs = pd.read_excel('./对账数据/公司银行存款明细账.xlsx',header=1)
df_gs.head()
# 读取银行流水 df_yh = pd.read_excel('./对账数据/银行流水.xlsx',header=1)
df_yh.head()
数据清洗:修改列名
df_gs_jie = df_gs[['凭证号','借方']] df_gs_jie = df_gs_jie.rename(columns={'借方':'金额'})
df_gs_jie.head()
df_yh_shou = df_yh[['收款金额','对方户名']] df_yh_shou = df_yh_shou.rename(columns={'收款金额':'金额'})
df_yh_shou.head()
拼接两张表
# 将两张表的借方-收款拼接 mergedStuff_jie_shou= df_gs_jie.append(df_yh_shou)
mergedStuff_jie_shou = mergedStuff_jie_shou[mergedStuff_jie_shou['金额'] != 0] # 剔除金额为 0 的行 mergedStuff_jie_shou
根据金额进行统计
df_count = mergedStuff_jie_shou.groupby(by='金额').count()
df_count
# 判断金额出现的次数 df_count['重复次数'] = df_count['凭证号'] - df_count['对方户名']
df_count
# 重复次数不为0,就是没有对上 df_result = df_count[df_count['重复次数'] != 0].copy()
df_result
# 判断错误问题
df_result['错误原因'] = df_result.apply(lambda x: '漏记' if x['重复次数']< 0 else ('重复记录/多记' if x['重复次数'] > 1 else '多记/错记'), axis=1) print('借方-收款出现的错误')
df_result[['错误原因']]
# 多记/错记 df_gs[df_gs['借方'] == 1.00]
# 漏记 df_yh[(df_yh['收款金额'] == 637146.52) |
(df_yh['收款金额'] == 27023289.88) ]
未来,你只要修改好需要读取的表,确定需要比对的列,然后一键运行,结果一瞬间就出来了,而且你之后每个月,每周,甚至每天要比对的时候,你只需要确定好你要比对的表,比对的数据列,就可以快速得到结果,代码复用效率极高。你还可以进一步查看各自表中具体行的数据,方便你具体判断。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14