
R语言与区间估计学习笔记
鉴于区间估计的理论与方法可以在任意一本统计学教程中找到,故这里只是单纯的介绍R语言中区间估计的函数与一些自己编写的区间估计函数。
一、单正态总体的参数估计
1、 方差已知时的均值估计
z.test<-function(x,n,sigma,a,u0,alt){
result<-list()
mean<-mean(x)
result$interval<-c(mean-sigma*qnorm(1-a/2,0,1)/sqrt(n),mean+sigma*qnorm(1-a/2,0,1)/sqrt(n))
z<-(mean-u0)/(sigma/sqrt(n))
p<-pnorm(z,lower.tail=F) #函数笔记:lower.tail是真的话,得出的就是X<=x的分位数,为假的话就是用P(X>x)的办法寻找这个值。一般我们用默认的真就可以了
result$z<-z
result$p.value<-p #通过P值判定参数估计效果
if(alt==2)
reslut$p.value<-2*pnorm(abs(z),lower.tail=F)
else
reslut$p.value<-pnorm(z)
reslut#函数笔记:如果函数的结果需要有多个返回值,可以创建一个list(),并返回该对象。也可以用return()函数,设定返回值。但是一个函数的返回的对象只有一个。
}
2、 方差未知时的均值估计
在小样本中,我们通常使用R语言的内置函数t.test()调用格式:
t.test(x, y = NULL,
alternative = c("two.sided", "less","greater"),
mu = 0, paired = FALSE, var.equal = FALSE,
conf.level = 0.95, ...)
对于大样本,我们可以使用样本方差代替总体方差,使用z.test()处理
3、 方差的区间估计
chisq.var.test<-function(x,n,a,alt=2,sigma0=1)
{
result<-list()
v<-var(x)
result$interval<-c((n-1)*v/qchisq(1-a/2,n-1,lower.tail=T),(n-1)*v/qchisq(a/2,n-1,lower.tail=T))
chi2<-(n-1)*v/sigma0
result$chi2<-chi2
p<-pchisq(chi2,n-1)
if(alt==2)
result$p.value<-2*min(pchisq(chi2,n-1),pchisq(chi2,n-1,lower.tail=F))
else
result$p.value<-pchisq(chi2,n-1,lower.tail=F)
result
}
这里虽然用fisher引理知道利用卡方分布来处理,但是我们不用chisq.test()来命名这个函数,因为R的内置函数中有chisq.test().如果我们这样命名函数,会导致卡方检验时使用有些许不便。
二、两正态总体参数的区间估计
1、 两方差都已知时两均值差的置信区间
two.sample.sigmaknown<-function(x,y,conf.level=0.95,sigma1,sigma2,alt=c("twosides","less","greater"))
{
n1<-length(x)
n2<-length(y)
x_<-mean(x)-mean(y)
a<-1-conf.level
z1<-qnorm(1-a/2)*sqrt(sigma1/n1+sigma2/n2)
z2<-qnorm(1-a)*sqrt(sigma1/n1+sigma2/n2)
if(alt=="two sides")
x_ +c(-z1,z1)
else if(alt=="less")
x_ -z2
else
x_ +z2
}
注:对于大样本,我们可以以样本标准差代替总体方差来进行区间估计
2、 两方差都未知但相等时两均值差的置信区间
直接使用t.test()函数即可
注:由于对于一般情形估计的方法特别多,可以使用neyman的枢轴量法亦可以使用fisher的信仰推断(通常认为后者较好)。故在此不予介绍
3、 两方差比的置信区间 数据分析培训
仔细阅读方差比的区间估计内容,我们应该注意到,两样本在做方差比估计时应该需要做正态性检验,在R中,你可以使用函数shapiro.test()来实现,该检验对数据的正态性是给与保护的。
使用var.test()函数,调用格式如下:
var.test(x, y, ratio = 1,
alternative = c("two.sided", "less", "greater"),
conf.level = 0.95, ...)
最后,我想解释一下置信水平的含义,我们所说的置信水平是指用这样的办法对数据进行100次估计,包含真值的次数为100*conf.level。这里的估计是指对不同数据用同样方法进行估计。我们可以编写一个R函数来验证一下:
judge<-rep(0,1000)
for(i in 1:1000){
set.seed(5*i)
if(t.test(rnorm(100000,5,17))$conf.int[1]<=5&5<=t.test(rnorm(100000,5,17))$conf.int[2])
judge[i]<-0
else
judge[i]<-1
}
table(judge)
输出结果:
#judge
# 0 1
#954 46
#从这里来看,估计达到95%的置信水平
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13分库分表,为何而生? 在信息技术发展的早期阶段,数据量相对较小,业务逻辑也较为简单,单库单表的数据库架构就能够满足大多数 ...
2025-10-13在企业数字化转型过程中,“数据孤岛” 是普遍面临的痛点:用户数据散落在 APP 日志、注册系统、客服记录中,订单数据分散在交易 ...
2025-10-13在数字化时代,用户的每一次行为 —— 从电商平台的 “浏览→加购→购买”,到视频 APP 的 “打开→搜索→观看→收藏”,再到银 ...
2025-10-11在机器学习建模流程中,“特征重要性分析” 是连接 “数据” 与 “业务” 的关键桥梁 —— 它不仅能帮我们筛选冗余特征、提升模 ...
2025-10-11在企业的数据体系中,未经分类的数据如同 “杂乱无章的仓库”—— 用户行为日志、订单记录、商品信息混杂存储,CDA(Certified D ...
2025-10-11在 SQL Server 数据库操作中,“数据类型转换” 是高频需求 —— 无论是将字符串格式的日期转为datetime用于筛选,还是将数值转 ...
2025-10-10在科研攻关、工业优化、产品开发中,正交试验(Orthogonal Experiment)因 “用少量试验覆盖多因素多水平组合” 的高效性,成为 ...
2025-10-10在企业数据量从 “GB 级” 迈向 “PB 级” 的过程中,“数据混乱” 的痛点逐渐从 “隐性问题” 变为 “显性瓶颈”:各部门数据口 ...
2025-10-10在深度学习中,“模型如何从错误中学习” 是最关键的问题 —— 而损失函数与反向传播正是回答这一问题的核心技术:损失函数负责 ...
2025-10-09本文将从 “检验本质” 切入,拆解两种方法的核心适用条件、场景边界与实战选择逻辑,结合医学、工业、教育领域的案例,让你明确 ...
2025-10-09在 CDA 数据分析师的日常工作中,常会遇到这样的困惑:某电商平台 11 月 GMV 同比增长 20%,但究竟是 “长期趋势自然增长”,还 ...
2025-10-09Pandas 选取特定值所在行:6 类核心方法与实战指南 在使用 pandas 处理结构化数据时,“选取特定值所在的行” 是最高频的操作之 ...
2025-09-30球面卷积神经网络(SCNN) 为解决这一痛点,球面卷积神经网络(Spherical Convolutional Neural Network, SCNN) 应运而生。它通 ...
2025-09-30在企业日常运营中,“未来会怎样” 是决策者最关心的问题 —— 电商平台想知道 “下月销量能否达标”,金融机构想预判 “下周股 ...
2025-09-30Excel 能做聚类分析吗?基础方法、进阶技巧与场景边界 在数据分析领域,聚类分析是 “无监督学习” 的核心技术 —— 无需预设分 ...
2025-09-29XGBoost 决策树:原理、优化与工业级实战指南 在机器学习领域,决策树因 “可解释性强、处理非线性关系能力突出” 成为基础模型 ...
2025-09-29在标签体系的落地链路中,“设计标签逻辑” 只是第一步,真正让标签从 “纸上定义” 变为 “业务可用资产” 的关键,在于标签加 ...
2025-09-29在使用 Excel 数据透视表进行多维度数据汇总时,折叠功能是梳理数据层级的核心工具 —— 通过点击 “+/-” 符号可展开明细数据或 ...
2025-09-28在使用 Pandas 处理 CSV、TSV 等文本文件时,“引号” 是最容易引发格式混乱的 “隐形杀手”—— 比如字段中包含逗号(如 “北京 ...
2025-09-28