京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:俊欣
来源:关于数据分析与可视化
大家好,我是俊欣,本篇文章应该算得上是2022年的第一篇原创了,抱歉,元旦期间小编有点偷懒。
今天小编来给大家讲一下Pandas模块当中的数据统计与排序,说到具体的就是value_counts()方法以及sort_values()方法。
value_counts()方法,顾名思义,主要是用于计算各个类别出现的次数的,而sort_values()方法则是对数值来进行排序,当然除了这些,还有很多大家不知道的衍生的功能等待被挖掘,下面小编就带大家一个一个的说过去。
我们这次用到的数据集是“非常有名”的泰坦尼克号的数据集,该数据源能够在很多平台上都能够找得到
import pandas as pd
df = pd.read_csv("titanic_train.csv")
df.head()
output
首先我们来看一下常规的用法,代码如下
df['Embarked'].value_counts()
output
S 644 C 168 Q 77 Name: Embarked, dtype: int64
下面我们简单来介绍一下value_counts()方法当中的参数,
DataFrame.value_counts(subset=None,
normalize=False,
sort=True,
ascending=False,
dropna=True)
常用到参数的具体解释为:
上面返回的结果是按照从大到小来进行排序的,当然我们也可以反过来,从小到大来进行排序,代码如下
df['Embarked'].value_counts(ascending=True)
output
Q 77 C 168 S 644 Name: Embarked, dtype: int64
同时我们也可以对索引,按照字母表的顺序来进行排序,代码如下
df['Embarked'].value_counts(ascending=True).sort_index(ascending=True)
output
C 168 Q 77 S 644 Name: Embarked, dtype: int64
当中的ascending=True指的是升序排序
默认的是value_counts()方法不会对空值进行统计,那要是我们也希望对空值进行统计的话,就可以加上dropna参数,代码如下
df['Embarked'].value_counts(dropna=False)
output
S 644 C 168 Q 77 NaN 2 Name: Embarked, dtype: int64
我们可以将数值的统计转化成百分比式的统计,可以更加直观地看到每一个类别的占比,代码如下
df['Embarked'].value_counts(normalize=True)
output
S 0.724409 C 0.188976 Q 0.086614 Name: Embarked, dtype: float64
要是我们希望对能够在后面加上一个百分比的符号,则需要在Pandas中加以设置,对数据的展示加以设置,代码如下
pd.set_option('display.float_format', '{:.2%}'.format) df['Embarked'].value_counts(normalize = True)
output
S 72.44% C 18.90% Q 8.66% Name: Embarked, dtype: float64
当然除此之外,我们还可以这么来做,代码如下
df['Embarked'].value_counts(normalize = True).to_frame().style.format('{:.2%}')
output
Embarked S 72.44% C 18.90% Q 8.66%
和Pandas模块当中的cut()方法相类似的在于,我们这里也可以将连续型数据进行分箱然后再来统计,代码如下
df['Fare'].value_counts(bins=3)
output
(-0.513, 170.776] 871 (170.776, 341.553] 17 (341.553, 512.329] 3 Name: Fare, dtype: int64
我们将Fare这一列同等份的分成3组然后再来进行统计,当然我们也可以自定义每一个分组的上限与下限,代码如下
df['Fare'].value_counts(bins=[-1, 20, 100, 550])
output
(-1.001, 20.0] 515 (20.0, 100.0] 323 (100.0, 550.0] 53 Name: Fare, dtype: int64
pandas模块当中的groupby()方法允许对数据集进行分组,它也可以和value_counts()方法联用更好地来进行统计分析,代码如下
df.groupby('Embarked')['Sex'].value_counts()
output
Embarked Sex C male 95 female 73 Q male 41 female 36 S male 441 female 203 Name: Sex, dtype: int64
上面的代码是针对“Embarked”这一类别下的“Sex”特征进行分组,然后再进一步进行数据的统计分析,当然出来的结果是Series数据结构,要是我们想让Series的数据结果编程DataFrame数据结构,可以这么来做,
df.groupby('Embarked')['Sex'].value_counts().to_frame()
下面我们来谈一下数据的排序,主要用到的是sort_values()方法,例如我们根据“年龄”这一列来进行排序,排序的方式为降序排,代码如下
df.sort_values("Age", ascending = False).head(10)
output
我们看到排序过之后的DataFrame数据集行索引依然没有变,我们希望行索引依然可以是从0开始依次的递增,就可以这么来做,代码如下
df.sort_values("Age", ascending = False, ignore_index = True).head(10)
output
下面我们简单来介绍一下sort_values()方法当中的参数
DataFrame.sort_values(by, axis=0, ascending=True, inplace=False, kind='quicksort', na_position='last', # last,first;默认是last ignore_index=False, key=None)
常用到参数的具体解释为:
我们还可以对多个字段进行排序,代码如下
df.sort_values(["Age", "Fare"], ascending = False).head(10)
output
同时我们也可以对不同的字段指定不同的排序方式,如下
df.sort_values(["Age", "Fare"], ascending = [False, True]).head(10)
output
我们可以看到在“Age”一样的情况下,“Fare”字段是按照升序的顺序来排的
我们可以自定义一个函数方法,然后运用在sort_values()方法当中,让其按照自己写的方法来排序,我们看如下的这组数据
df = pd.DataFrame({ 'product': ['keyboard', 'mouse', 'desk', 'monitor', 'chair'], 'category': ['C', 'C', 'O', 'C', 'O'], 'year': [2002, 2002, 2005, 2001, 2003], 'cost': ['$52', '$24', '$250', '$500', '$150'], 'promotion_time': ['20hr', '30hr', '20hr', '20hr', '2hr'],
})
output
当中的“cost”这一列带有美元符号“$”,因此就会干扰排序的正常进行,我们使用lambda方法自定义一个函数方法运用在sort_value()当中
df.sort_values( 'cost',
key=lambda val: val.str.replace('$', '').astype('float64')
)
output
当然我们还可以自定义一个更加复杂一点的函数,并且运用在sort_values()方法当中,代码如下
def sort_by_cost_time(x): if x.name == 'cost': return x.str.replace('$', '').astype('float64') elif x.name == 'promotion_time': return x.str.replace('hr', '').astype('int') else: return x
df.sort_values(
['year', 'promotion_time', 'cost'],
key=sort_by_cost_time
)
output
还有另外一种情况,例如我们遇到衣服的尺码,XS码、S码、M码、L码又或者是月份,Jan、Feb、Mar、Apr等等,需要我们自己去定义大小,这个时候我们需要用到的是CategoricalDtype
cat_size_order = CategoricalDtype(
['XS', 'S', 'M', 'L', 'XL'],
ordered=True
)
cat_size_order
output
CategoricalDtype(categories=['XS', 'S', 'M', 'L', 'XL'], ordered=True)
于是针对下面的数据
df = pd.DataFrame({ 'cloth_id': [1001, 1002, 1003, 1004, 1005, 1006], 'size': ['S', 'XL', 'M', 'XS', 'L', 'S'],
})
output
我们将事先定义好的顺序应用到该数据集当中,代码如下
df['size'] = df['size'].astype(cat_size_order)
df.sort_values('size')
output
先通过astype()来转换数据类型,然后再进行排序
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14