京公网安备 11010802034615号
经营许可证编号:京B2-20210330
来源:早起Python
作者:刘早起
本文将基于东京奥运会奖牌榜数据,使用 pandas 进行数据分析可视化实战(文末可以下载数据与源码)
首先是奥运会奖牌数据的获取,虽然有很多接口提供数据,但是通过奥运会官网拿到的数据自然是最可靠的
通过对东京奥运会官网奖牌榜的页面分析,发现其表格在前端是通过 嵌入的,所以可以使用 pandas.read_html() 轻松读取
之后再读取本地分日奖牌数据并将国家ID进行匹配
注意到上面的 df1 列名并没有完整,所以可以使用 rename 函数修改指定列的名称
既然 df2 有时间列,为了方便后面分析,自然要检查一下其类型
可以看到,获奖时间列虽然没有缺失值但其并不是pandas支持的时间类型。
好在修改列属性并不是什么困难的事情,一行代码轻松搞定(7-12)
通过观察可以发现,df2并没有 国家名称 列,但是其与 df1 有一个共同列 国家id
为了给 df2 新增一列 国家名称 列,一个自然的想法就是通过 国家id 列将两个数据框进行合并,在 pandas 中实现,也不是什么困难的事情
现在 df2 就调整的差不多了(由于源数据问题,部分获奖时间与真实时间有一定误差),下面开始进行分析
下面对 df2 进行一些统计分析,计算每个国家的奖牌总数(也就是出现次数),并查看奖牌数前5名,结果可以用 df1 进行验证
看完国家奖牌排行,接下来计算获得奖牌最多的运动员(注意:仅统计单人项目)
这里无需使用分组功能,只需要按照运动员姓名列进行频率统计即可。
下面筛选出全部乒乓球的获奖信息,这里的筛选有多种写法,你能写出几种?
现在查看各国在各项目上的奖牌详情,下面是通过透视得到的答案,但你会使用使用数据分组功能吗?
在上一题的基础上,查询中国队的获奖牌详情,注意是查询而不是筛选,所以使用上上一题的方法将会报错
如何将上一题的结果进一步突出展示,可以使用 pandas 中的 style
上面说到,df2 的获奖时间部分并不准确(主要体现在小时上),所以我们干脆将时间精确到天,这里可以使用 map 对一整列进行操作
接下来,让我们统计每天产生的奖牌总数
可以看到,最后一天产生的奖牌数量最多
再来查看不同项目在不同国家的分布情况,同样也可以使用分组功能实现
接下来让我们计算中国每日总奖牌数量,你能想到该如何实现吗?
最后,计算前十名各国每日奖牌数量统计,注意:对于第一天没有数据的国家用0填充,其余时间的缺失值用上一日数据填充。
这看似简单的问题,涉及的 pandas 操作还真不少!
首先制作奖牌排行榜
上图使用 matplotlib 制作,看起来不错,但代码量也确实不少
接下来使用 pyecharts 绘制上一题奖牌榜各奖牌的细分
使用 pyecharts 的好处就是使用封装好的方法,代码量相对较少
现在进一步绘制中国队的奖牌分布
同样使用 pyecharts ,实际行代码搞定
现在绘制奖牌分布的热力地图
使用 pyecharts 绘制,绘图代码不多,但是调整国家中英文映射字典是一件痛苦的事情
最后绘制每日奖牌榜前十奖牌数量的动态图,使用 matplotlib 或 pyecharts 均得不到较好的效果,所以这里使用另一个第三方库 bar_chart_race 进行绘制
以上就是基于 2020年东京奥运会 数据进行的一系列数据分析可视化流程,基本涉及到利用 Pandas 进行数据分析的主要操作,是一份不可多得的简单易懂、利于探索的数据集。
df1 = pd.read_html("https://olympics.com/tokyo-2020/olympic-games/zh/results/all-sports/medal-standings.htm")[0]
df2 = pd.read_csv("东京奥运会奖牌分日数据.csv")
修改列名
df1.rename(columns={'Unnamed: 2':'金牌数', 'Unnamed: 3':'银牌数', 'Unnamed: 4':'铜牌数'},inplace=True)
数据类型查看与修改
df2.info()
df2['获奖时间'] = pd.to_datetime(df2['获奖时间'])
数据合并
temp = pd.merge(df1,df2,on = '国家id') #先合并 temp['获奖时间'] = pd.to_datetime(temp['获奖时间'])#修改类型 temp = temp.sort_values(by=['获奖时间','奖牌类型'], ascending=True, ignore_index=True)#排序,和df2一样 df2['国家'] = temp['国家奥委会']#赋值
数据分组
数据统计
数据筛选
数据透视
pd.pivot_table(df2,values = ['奖牌类型'],index = ['国家','运动类别'],aggfunc = 'count')
数据查询
result.query("国家 == ['中国']")
个性化查看
(result.query("国家 == ['中国']")
.style
.bar(subset=['奖牌类型'],color='skyblue'))
数据格式化
def time_format(x): return x.strftime("%m月%d日")
df2['获奖时间'] = df2['获奖时间'].map(time_format)
分组统计
df2.groupby("获奖时间")['国家'].count().sort_values()
数据透视
pd.pivot_table(df2,values = ['奖牌类型'],index = ['运动类别','国家'],aggfunc = 'count')
数据计算
pd.pivot_table(df2,values = ['奖牌类型'],index = ['获奖时间','国家'],aggfunc = 'count').query("国家 == ['中国']").cumsum()
数据计算
data = pd.pivot_table(df2,values = ['奖牌类型'],index = ['获奖时间','国家'],aggfunc = 'count').query("国家 == ['美国', '中国', '日本', '英国', 'ROC', '澳大利亚', '荷兰', '法国', '德国', '意大利']") data = data.unstack() data.columns = data.columns.get_level_values(1) data.columns.name = None data = data.cumsum() data = data.fillna(axis=0,method='ffill').fillna(0) data
条形图
堆叠图
环形图
地图
动态图
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27