京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:丁点helper
来源:丁点帮你
今天开始学习在R语言中做描述性统计。为了便于大家边学边练,可以下载这个数据:
文件名:titanic.csv
链接:https://pan.baidu.com/s/1Pj0EsaBZdnw6mHPpeVd9Aw
密码: yuym
将本地文件导入到R中
为了便于数据管理和操作,我们通常会把数据保存为.csv格式,这是excel中的一种较为简单的数据格式。想要把一个.csv格式的数据导入R,可以用read.csv()这个函数:
# 将本地文件titanic.csv导入到R中,
# 并存储到titanic这个对象中titanic
<- read.csv("//Users//Desktop//titanic.csv",header = TRUE)
假设该本地文件存储的是1912年沉没于大西洋的巨型邮轮泰坦尼克号中乘客的基本信息。
上面第一个命令"//Users//Desktop//titanic.csv"是文件titanic.csv的本地存储地址,大家要根据自己电脑的存储位置自行调整;
第二个命令header = TRUE 是指将原文件中的第一行自动设置为文件的列名。
如果你的.csv文件中并无列名,而是希望在导入R之后再设置,则应将第二个命令设置为header = FALSE。
了解数据
上篇文章讲过,拿到一个数据库,首先要了解它的基本信息。之前已经讲过,我们简单复习一下。
class(titanic) #对象是什么数据结构[1] "data.frame"dim(titanic) #查看数据有几行几列[1] 1309 6names(titanic) #查看数据的列名[1] "pclass" "survived" "sex" "age" "sibsp" "parch" head(titanic) #查看前6行tail(titanic) #查看后6行
可以知道,titanic这个数据框中有1309条记录,6个变量。
这6个变量依次为舱位等级、是否幸存、性别、年龄、同行的兄弟姐妹或配偶数量、同行的父母或子女数量。
描述性统计
接下来我们来对titanic这个数据做描述性统计。
1. 每个等级的船舱中分别有多少人?
有两种方法,一是table()函数,用于统计分类变量pclass中各类别的频数;二是summary()函数,功能是做描述性统计,既适用于分类也适用于计数变量,可以用来统计分类变量的频数、计算计数变量的均数、百分位数等。
# 方法一table(titanic$pclass) 1st 2nd 3rd 323 277 709# 方法二summary(titanic$pclass) 1st 2nd 3rd 323 277 709
2. 遇难者与幸存者分别有多少人?
table(titanic$survived) died survived 809 500
3. 每个等级的舱位中分别有多少人遇难、多少人幸存?
本例中,按照『舱位等级』和『是否幸存』两个条件统计乘客状况,共6种可能。仍使用table()函数,统计每种可能的状况分别有多少人,生成交叉列联表。
# 将列联表存储在tab1中tab1 <- table(titanic$survived,titanic$pclass) # 查看tab1的内容tab1 1st 2nd 3rd died 123 158 528 survived 200 119 181
4. 每个等级的舱位中幸存者的比例是多少呢?
思路很简单,就是每等级舱位中幸存者的人数占该舱位总人数的比例。
1)那我们先看看每等级舱位中幸存者的人数怎么算,上面的tab1第二行就是,只需要将其提取出来,方法和前面讲过的如何提取数据框中的行和列相同:
#提取tab1的第二行tab1[2, ] 1st 2nd 3rd 200 119 181
2)每种舱位总人数?上面也已经计算过:
table(titanic$pclass) 1st 2nd 3rd 323 277 709
还有一种方法,使用apply()函数,功能是对矩阵类数据的行或列进行批量处理:
apply(tab1,2,sum) 1st 2nd 3rd 323 277 709
函数中有三个命令。第一个命令tab1表示待处理的数据;第二个命令2表示对tab1的每一列进行处理,若需处理每一行,则第二个命令应输入数字1;第三个命令sum表示求和。
因此,上述语句的意义为:对tab1中的每一列求和,即计算每个等级舱位中的总人数。
3)求每等级舱位中幸存者的人数占该舱位总人数的比例:
# 方法一 tab1[2, ]/table(titanic$pclass) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891 # 方法二 tab1[2, ]/apply(tab1,2,sum) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891
4)你一定也发现了,这个结果非常不美观,也不适合在科研工作中报告。我们做以下变化:
# 先乘以100 tab1[2, ]/apply(tab1,2,sum)*100 1st 2nd 3rd 61.91950 42.96029 25.52891 # 保留2位小数 round(tab1[2, ]/apply(tab1,2,sum)*100,2) 1st 2nd 3rd 61.92 42.96 25.53
round()函数的功能是保留小数位数。
上面的代码中,第一个命令tab1[2, ]/apply(tab1,2,sum)*100 是需要保留小数的对象;
第二个命令2是指保留2位小数。
5)可是这个结果显然不对,加上百分号%才是准确的。需要用到paste()函数,该函数的功能是把各种元素连接起来,本例中,我们希望把数字和百分号连接:
paste(round(tab1[2, ]/apply(tab1,2,sum)*100,2),"%",sep="") "61.92%" "42.96%" "25.53%"
第一个命令round(tab1[2, ]/apply(tab1,2,sum)*100,2) 就是上面计算好的百分数的数字部分,这是要连接的第一部分;
第二个命令"%" 是要连接的第二部分;
第三个命令sep="" 指两个元素之间的连接符号,这里我们不需要任何连接符号,所以引号""之间什么都不用写。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在企业数字化转型过程中,业务模型与数据模型是两大核心支撑体系:业务模型承载“业务应该如何运转”的逻辑,数据模型解决“数据 ...
2026-01-12当前手游市场进入存量竞争时代,“拉新难、留存更难”成为行业普遍痛点。对于手游产品而言,用户留存率不仅直接决定产品的生命周 ...
2026-01-12在CDA(Certified Data Analyst)数据分析师的日常工作中,“挖掘变量间的关联关系”是高频核心需求——比如判断“用户停留时长 ...
2026-01-12在存量竞争时代,用户流失率直接影响企业的营收与市场竞争力。无论是电商、互联网服务还是金融行业,提前精准预测潜在流失用户, ...
2026-01-09在量化投资领域,多因子选股是主流的选股策略之一——其核心逻辑是通过挖掘影响股票未来收益的各类因子(如估值、成长、盈利、流 ...
2026-01-09在CDA(Certified Data Analyst)数据分析师的工作场景中,分类型变量的关联分析是高频需求——例如“用户性别与商品偏好是否相 ...
2026-01-09数据库中的历史数据,是企业运营过程中沉淀的核心资产——包含用户行为轨迹、业务交易记录、产品迭代日志、市场活动效果等多维度 ...
2026-01-08在电商行业竞争日趋激烈的当下,数据已成为驱动业务增长的核心引擎。电商公司的数据分析师,不仅是数据的“解读官”,更是业务的 ...
2026-01-08在数据驱动决策的链路中,统计制图是CDA(Certified Data Analyst)数据分析师将抽象数据转化为直观洞察的关键载体。不同于普通 ...
2026-01-08在主成分分析(PCA)的学习与实践中,“主成分载荷矩阵”和“成分矩阵”是两个高频出现但极易混淆的核心概念。两者均是主成分分 ...
2026-01-07在教学管理、学生成绩分析场景中,成绩分布图是直观呈现成绩分布规律的核心工具——通过图表能快速看出成绩集中区间、高分/低分 ...
2026-01-07在数据分析师的工作闭环中,数据探索与统计分析是连接原始数据与业务洞察的关键环节。CDA(Certified Data Analyst)作为具备专 ...
2026-01-07在数据处理与可视化场景中,将Python分析后的结果导出为Excel文件是高频需求。而通过设置单元格颜色,能让Excel中的数据更具层次 ...
2026-01-06在企业运营、业务监控、数据分析等场景中,指标波动是常态——无论是日营收的突然下滑、用户活跃度的骤升,还是产品故障率的异常 ...
2026-01-06在数据驱动的建模与分析场景中,“数据决定上限,特征决定下限”已成为行业共识。原始数据经过采集、清洗后,往往难以直接支撑模 ...
2026-01-06在Python文件操作场景中,批量处理文件、遍历目录树是高频需求——无论是统计某文件夹下的文件数量、筛选特定类型文件,还是批量 ...
2026-01-05在神经网络模型训练过程中,开发者最担心的问题之一,莫过于“训练误差突然增大”——前几轮还平稳下降的损失值(Loss),突然在 ...
2026-01-05在数据驱动的业务场景中,“垃圾数据进,垃圾结果出”是永恒的警示。企业收集的数据往往存在缺失、异常、重复、格式混乱等问题, ...
2026-01-05在数字化时代,用户行为数据已成为企业的核心资产之一。从用户打开APP的首次点击,到浏览页面的停留时长,再到最终的购买决策、 ...
2026-01-04在数据分析领域,数据稳定性是衡量数据质量的核心维度之一,直接决定了分析结果的可靠性与决策价值。稳定的数据能反映事物的固有 ...
2026-01-04