京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者:丁点helper
来源:丁点帮你
今天开始学习在R语言中做描述性统计。为了便于大家边学边练,可以下载这个数据:
文件名:titanic.csv
链接:https://pan.baidu.com/s/1Pj0EsaBZdnw6mHPpeVd9Aw
密码: yuym
将本地文件导入到R中
为了便于数据管理和操作,我们通常会把数据保存为.csv格式,这是excel中的一种较为简单的数据格式。想要把一个.csv格式的数据导入R,可以用read.csv()这个函数:
# 将本地文件titanic.csv导入到R中,
# 并存储到titanic这个对象中titanic
<- read.csv("//Users//Desktop//titanic.csv",header = TRUE)
假设该本地文件存储的是1912年沉没于大西洋的巨型邮轮泰坦尼克号中乘客的基本信息。
上面第一个命令"//Users//Desktop//titanic.csv"是文件titanic.csv的本地存储地址,大家要根据自己电脑的存储位置自行调整;
第二个命令header = TRUE 是指将原文件中的第一行自动设置为文件的列名。
如果你的.csv文件中并无列名,而是希望在导入R之后再设置,则应将第二个命令设置为header = FALSE。
了解数据
上篇文章讲过,拿到一个数据库,首先要了解它的基本信息。之前已经讲过,我们简单复习一下。
class(titanic) #对象是什么数据结构[1] "data.frame"dim(titanic) #查看数据有几行几列[1] 1309 6names(titanic) #查看数据的列名[1] "pclass" "survived" "sex" "age" "sibsp" "parch" head(titanic) #查看前6行tail(titanic) #查看后6行
可以知道,titanic这个数据框中有1309条记录,6个变量。
这6个变量依次为舱位等级、是否幸存、性别、年龄、同行的兄弟姐妹或配偶数量、同行的父母或子女数量。
描述性统计
接下来我们来对titanic这个数据做描述性统计。
1. 每个等级的船舱中分别有多少人?
有两种方法,一是table()函数,用于统计分类变量pclass中各类别的频数;二是summary()函数,功能是做描述性统计,既适用于分类也适用于计数变量,可以用来统计分类变量的频数、计算计数变量的均数、百分位数等。
# 方法一table(titanic$pclass) 1st 2nd 3rd 323 277 709# 方法二summary(titanic$pclass) 1st 2nd 3rd 323 277 709
2. 遇难者与幸存者分别有多少人?
table(titanic$survived) died survived 809 500
3. 每个等级的舱位中分别有多少人遇难、多少人幸存?
本例中,按照『舱位等级』和『是否幸存』两个条件统计乘客状况,共6种可能。仍使用table()函数,统计每种可能的状况分别有多少人,生成交叉列联表。
# 将列联表存储在tab1中tab1 <- table(titanic$survived,titanic$pclass) # 查看tab1的内容tab1 1st 2nd 3rd died 123 158 528 survived 200 119 181
4. 每个等级的舱位中幸存者的比例是多少呢?
思路很简单,就是每等级舱位中幸存者的人数占该舱位总人数的比例。
1)那我们先看看每等级舱位中幸存者的人数怎么算,上面的tab1第二行就是,只需要将其提取出来,方法和前面讲过的如何提取数据框中的行和列相同:
#提取tab1的第二行tab1[2, ] 1st 2nd 3rd 200 119 181
2)每种舱位总人数?上面也已经计算过:
table(titanic$pclass) 1st 2nd 3rd 323 277 709
还有一种方法,使用apply()函数,功能是对矩阵类数据的行或列进行批量处理:
apply(tab1,2,sum) 1st 2nd 3rd 323 277 709
函数中有三个命令。第一个命令tab1表示待处理的数据;第二个命令2表示对tab1的每一列进行处理,若需处理每一行,则第二个命令应输入数字1;第三个命令sum表示求和。
因此,上述语句的意义为:对tab1中的每一列求和,即计算每个等级舱位中的总人数。
3)求每等级舱位中幸存者的人数占该舱位总人数的比例:
# 方法一 tab1[2, ]/table(titanic$pclass) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891 # 方法二 tab1[2, ]/apply(tab1,2,sum) 1st 2nd 3rd 0.6191950 0.4296029 0.2552891
4)你一定也发现了,这个结果非常不美观,也不适合在科研工作中报告。我们做以下变化:
# 先乘以100 tab1[2, ]/apply(tab1,2,sum)*100 1st 2nd 3rd 61.91950 42.96029 25.52891 # 保留2位小数 round(tab1[2, ]/apply(tab1,2,sum)*100,2) 1st 2nd 3rd 61.92 42.96 25.53
round()函数的功能是保留小数位数。
上面的代码中,第一个命令tab1[2, ]/apply(tab1,2,sum)*100 是需要保留小数的对象;
第二个命令2是指保留2位小数。
5)可是这个结果显然不对,加上百分号%才是准确的。需要用到paste()函数,该函数的功能是把各种元素连接起来,本例中,我们希望把数字和百分号连接:
paste(round(tab1[2, ]/apply(tab1,2,sum)*100,2),"%",sep="") "61.92%" "42.96%" "25.53%"
第一个命令round(tab1[2, ]/apply(tab1,2,sum)*100,2) 就是上面计算好的百分数的数字部分,这是要连接的第一部分;
第二个命令"%" 是要连接的第二部分;
第三个命令sep="" 指两个元素之间的连接符号,这里我们不需要任何连接符号,所以引号""之间什么都不用写。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07