京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R语言典型相关分析
1 关键点:典型相关分析
典型相关分析是用于分析两组随机变量之间的相关程度的一种统计方法,它能够有效地揭示两组随机变量之间的相互(线性依赖)关系
例如 研究生入学考试成绩与本科阶段一些主要课程成绩的相关性
将研究两组变量的相关性问题转化为研究两个变量的相关性问题 此类相关为典型相关#
2 分类:
总体典型相关
样本典型相关
3 R语言提供的计算函数:
典型相关计算 cancor(x,y,xcenter=TRUE,ycenter=TRUE)
x,y是相应的数据矩阵 xcenter,ycenter是逻辑变量 TRUE是将数据中心化 FALSE是不中心化
4 分析结果含义
cor是典型相关系数
xcoef是对应于数据x的系数 又称关于数据x的典型载荷即样本典型变量U系数矩阵A的转置
xcenter是数据X的中心 即数据X的样本均值
y是对应于数据x的系数 又称关于数据y的典型载荷即样本典型变量V系数矩阵B的转置
ycenter是数据Y的中心 即数据Y的样本均值
5 分析步骤
(1.)载入原始数据 data.frame
(2.)原始数据标准化 scale
(3.)典型相关分析 cancor
(4.)相关系数显著性检验 corcoef.test.R
I.典型相关分析的计算
现对20名中年人测得三个生理指标:体重(X1) 腰围(X2) 脉搏(X3);三个训练指标:引体向上(Y1) 起座次数(Y2) 跳跃次数(Y3) 试分析这组数据的相关性
#用数据框的形式输入数据矩阵
test<-data.frame(
X1=c(191, 193, 189, 211, 176, 169, 154, 193, 176, 156,
189, 162, 182, 167, 154, 166, 247, 202, 157, 138),
X2=c(36, 38, 35, 38, 31, 34, 34, 36, 37, 33,
37, 35, 36, 34, 33, 33, 46, 37, 32, 33),
X3=c(50, 58, 46, 56, 74, 50, 64, 46, 54, 54,
52, 62, 56, 60, 56, 52, 50, 62, 52, 68),
Y1=c( 5, 12, 13, 8, 15, 17, 14, 6, 4, 15,
2, 12, 4, 6, 17, 13, 1, 12, 11, 2),
Y2=c(162, 101, 155, 101, 200, 120, 215, 70, 60, 225,
110, 105, 101, 125, 251, 210, 50, 210, 230, 110),
Y3=c(60, 101, 58, 38, 40, 38, 105, 31, 25, 73,
60, 37, 42, 40, 250, 115, 50, 120, 80, 43)
)
#为了消除数量级的影响 将数据标准化处理 调用scale函数
test<-scale(test)
#对标准化的数据做典型相关分析
ca<-cancor(test[,1:3],test[,4:6])
#查看分析结果
ca
结果说明:
1) cor给出了典型相关系数;xcoef是对应于数据X的系数, 即为关于数据X的典型载荷; ycoef为关于数据Y的典型载荷;xcenter与$ycenter是数据X与Y的中心, 即样本均值;
2) 对于该问题, 第一对典型变量的表达式为
U1 = -0.17788841x1 + 0.36232695x2 - 0.01356309x3
U2 = -0.43230348x1 + 0.27085764x2 - 0.05301954x3
U3 = -0.04381432x1 + 0.11608883x2 + 0.24106633x3
V1 = -0.08018009y1 - 0.24180670y2 + 0.16435956y3
V2 = -0.08615561y1 + 0.02833066y2 + 0.24367781y3
V3 = -0.29745900y1 + 0.28373986y2 - 0.09608099y3
相应的相关系数为:p(U1,V1)=0.79560815 ,p(U2,V2)=0.20055604 ,p(U3,V3)=0.07257029
可以进行典型相关系数的显著性检验, 经检验也只有第一组典型变量.
下面计算样本数据在典型变量下的得分:
#计算数据在典型变量下的得分 U=AX V=BY
U<-as.matrix(test[, 1:3])%*% ca$xcoef ; U
V<-as.matrix(test[, 4:6])%*% ca$ycoef ; V
#调整图形
opar <- par(mfrow = c(1, 1),mar = c(5,4,1,1))
#画出以相关变量U1、V1和U3、V3为坐标的数据散点图
plot(U[,1], V[,1], xlab="U1", ylab="V1")
plot(U[,3], V[,3], xlab="U3", ylab="V3")
#调整图形
par(opar)
由散点图可知 第一典型相关变量分布在一条直线附近;第三典型相关变量数据很分散。因为第一典型变量其相关系数为0.79560815,接近1,所以在一直线附近;第三典型变量的相关系数是0.07257029,接近于0,所以很分散。
II.典型相关系数的显著性检验
作为相关分析的目的 就是选择多少对典型变量?因此需要做典型相关系数的显著性检验。若认为相关系数k为0 就没有必要考虑第k对典型变量了
#相关系数检验R程序
corcoef.test<-function(r, n, p, q, alpha=0.1){
#r为相关系数 n为样本个数 且n>p+q
m<-length(r); Q<-rep(0, m); lambda <- 1
for (k in m:1){
#检验统计量
lambda<-lambda*(1-r[k]^2);
#检验统计量取对数
Q[k]<- -log(lambda)
}
s<-0; i<-m
for (k in 1:m){
#统计量
Q[k]<- (n-k+1-1/2*(p+q+3)+s)*Q[k]
chi<-1-pchisq(Q[k], (p-k+1)*(q-k+1))
if (chi>alpha){
i<-k-1; break
}
s<-s+1/r[k]^2
}
#显示输出结果 选用第几对典型变量
i
}
source("corcoef.test.R")
#输入相关系数r,样本个数n,两个随机向量的维数p和q,置信水平a(缺省值为0.1)
corcoef.test(r=ca$cor,n=20,p=3,q=3)
#程序输出值为典型变量的对数
最终程序运行结果显示选择第一对典型相关变量。我们只利用第一典型变量分析问题,达到降维的目的。
write.csv(test,"test_test.csv")
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27