京公网安备 11010802034615号
经营许可证编号:京B2-20210330
用R语言分析报表访问的相关性
用R语言分析报表访问的相关性
1.起因
公司有几个提供数据系统,我负责其中一些系统的日常运维。其中最大的一个系统(有上千张的报表、清单)偶尔会有一些状况出现。而如果早上有问题,客服中心(呼叫中心)立即会对此进行严重投诉,并强调所有坐席都受到影响。印象中此类投诉一般出现在上午9点,而到了其他时间段,就算系统出现状况,他们也不会有投诉了。所以一直想分析一下客服中心的访问模式、访问重点是什么。另外,对于报表的总体访问情况也一直很有兴趣看一看。
这个工作一直没有去做。原因多种多样。最近有点时间,就打算用R来分析一下看看会有什么结果。
2.实战
a.数据整理。
进行数据分析,不能避免的第一步就是数据提取和整理。报表的每次点击都会有日志存放在数据库中,从最近一次系统升级到现在经过了19个月,一共有38万次点击,点击记录、点击用户、用户所属单位等信息分别存放在不同的表中。初始的关联工作我就利用数据库来完成了。也尝试过倒出来用R的merge函数,但是发现运行后R崩溃了。感觉是几十万的数据进行merge对我的机器来说可能太大了一些。既然手边有数据库,那很多初期工作就可以交给sql了,然后再利用R对初步整理好的数据框进行后续的各种处理。
最后生成的数据文件是如下格式的(csv文件)(部分字段进行了处理,以下是的简化版,呃.....实际折腾数据的过程总是有点复杂的):
"date","yyyymm","yyyy","mm","dd","day","hour","rpt_name","tag","dept"
"20120627","201206","2012","06","27","4","10","EVT_电话记录","事务报表","客户服务中心"
"20120627","201206","2012","06","27","4","10","SSR_投诉清单","投诉报表","东区"
....
字段的含义很明确,依次是:日期、年月、年、月、日、星期(1代表周日,2代表周一,etc)、小时、报表名、二级单位。
将数据读入。由于每个字段都有分析价值,所以每个字段都设为因子,并按照字符方式读入:
rptd <- read.csv("vis130730.csv",head=TRUE,stringsAsFactors=TRUE,sep=",",na.strings=" ",colClasses=c("character"))
读入数据后,用str(rptd)检查数据框结构时,发现所有的字段都不是因子。这是为什么?我不是已经设定stringsAsFactors=TRUE了么?看了一下手册,原来对于指定了字段类型的字段都将作为非因子读入,该选项无效。那就先这样吧,等需要的时候再进行因子化。
好了,数据初步整理完毕,接下来就要借助可视化分析了。这应该是R的强项之一了。
加载所需的加装包:
library(plyr)
library(reshape)
library(ggplot2)
b.客服中心在一天之中的报表访问情况是什么样的呢?
筛选出客服中心的数据(约有接近8万条,是总访问量的20%):
rptdkf <- rptd[rptd$dept=="客户服务中心",]
然后按照小时来绘图:
qplot(hour,data=rptdkf,xlab="小时",ylab="访问次数")
我们看到这样的结果:

有点令人失望。虽然大量访问集中在上午,但是并没有出现我预想中的“访问非常集中在8-9点”这样的情况,而是符合一般上午时点访问最多(8-11点,8点段访问少于9点段,应该是因为8:30才上班),中午休息,然后下午有一定访问量这种模式。
那么,在8-10点之间访问最多的报表是哪些呢?这些报表应该是维护的重中之重吧。我们再次进行筛选,并统计所有报表在这段时间的访问次数,按照访问次数的高低进行排序,可以看到有几张报表的访问频次远远超过其他报表:
rptdkf1 <- rptd[(rptdkf$hour=="08" | rptdkf$hour=="09" ),]
cnt <- ddply(rptdkf,.(rpt_name),nrow)
cnt <- cnt[order(cnt$V1,decreasing=TRUE),]
cnt
(结果略,可以发现有5张报表的访问量是其他报表的几倍、十几倍)
可以预计这些数据对于客服中心的人员是最重要,这些可以作为大家运行保障的重点(嗯,这话很像领导的口气)。这个信息当然也可以通过用户访谈得到,但是用户可能出于各种原因夸大重点报表的范围,对运维形成误导。而通过访问数据来分析就可能更准确地反映问题了。这并不是说访谈不重要,可能确实有些报表是少量管理人员每天上班要重点关注的,这需要通过访谈来甄别发现。这个工作就暂略了。
c.总体访问情况:
按照月份绘制了报表总体曲线,如下:
qplot(yyyymm, data=rptd,xlab="月份",ylab="访问次数")

可以看到访问量今年有所减少。13年的每个月对应12年的相应月份看也是在减少。这个可能是其他新的报表系统的替代作用。所以如果结合对其他报表系统访问情况的分析能看出一些其他的信息来。
分公司对报表的访问量占到了总访问量的60%,我们来看看他们的访问模式是什么样的。由于市场部等管理部门对各个分公司的工作有管理、指导的职责,所以我们将他们(他们占总访问量占10%)也纳入分析,我们用%in%筛选出这些单位,并按照个单位作图。
我们按照按照各个分公司绘制了按月的访问曲线:
rptdsub <- rptd[rptd$dept %in% c("宝山","北区","崇明","东区","奉贤","嘉定","金山","南区","浦东","青浦","莘闵","松江","西区","中区","市场部","政企客户部","公众客户部"),]
qplot(yyyymm, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

可以看到各个单位的访问量是有很大差异,虽然总体的访问次数是略有下降的,但是对应到不同的单位,可以看到有的在增加。或许这些访问在增加的单位加大了数据分析的力度,也可能是他们有分析的需求,但是对其他新的数据系统不够了解,所以没有好好利用新系统,而只能重点使用该系统。我们还可以看到浦东分公司的访问量最大(实际上超过了管理部门之和),中区分公司的访问量下降最明显。另外市区公司的访问量普遍高于郊区公司。这个可能和郊区竞争不激烈、人员配备较少有关。
再按照访问的钟点作图:
qplot(hour, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

我们还可以看到有些单位(金山、宝山)上班可能比标准时间早半个小时,因为他们在8点档的访问量超过9点档,与其他单位明显不同。有些单位下了班后就没有点击量了,有些单位明显勤快很多。另外,我们还可以注意到有些单位8点档几乎没有访问量,而到了9点的访问量也不是很多(呃,就不点名了,可能是他们的工作重点有所不同吧.....)
d.访问相关性。
最后,我们来看看分公司和市场等管理部门之间的访问相关性。我们采用多维定标(MDS)算法(参考《机器学习:实用案例解析》)。
首先我们需要建立一个访问矩阵,每行是各个单位,每列是各张报表。如果某个单位访问了某张报表,则对应的单元格填1,如果没有就填0。这个操作在数据库上好像很不好办(我不知道简单的实现办法,如果有人知道,烦请赐教)。原来想用循环的方式来做,忽然想到了reshape包的cast命令应该能完成这样的工作:
mds1 <- cast(mdsd, abbr~rpt_name)
第一列是单位的名称,我们需要将其剔除,剩余部分转化为一个矩阵。第一列转化为行名,原来的字段名(剔除第一个的dept)作为列名:
mds.m <- as.matrix(mds[,2:ncol(mds)])
row.names(mds.m) <- t(as.matrix(mds[,1]))[1,]
colnames(mds.m) <- colnames(mds)[2:ncol(mds)]
矩阵做好了,代码非常简洁,我相信,光凭reshape包,R就物超所值了。看了一下,发现交叉点上的值不是0和1,而是访问次数。我们再将所有非0的值都赋为1:
mds.m[mds.m>0] <- 1
好了,我们得到我们要的矩阵了,以下就是按部就班的操作:计算距离并作图:
mds.mute <- mds.m %*% t(mds.m)
mds.dist <-dist(mds.mute)
mds.g <- cmdscale(mds.dist)
plot(mds.g, type='n')
text(mds.g, row.names(mds.g))
最终看到的图如下:

真是令人意外:各个分公司与管理部门之间所看的报表情况竟然如此旗帜鲜明地分成两个聚类。这说明什么呢?二级公司与管理部门之间的分析思路和重点不同?管理部门没有将管理思路贯彻到各个分公司?还是说管理部门有秘而不宣的武器呢?
另外,分公司之间也有比较明显的区分:市区公司和郊区公司的关注重点明显有一定的差异。这个在IT部门以后开发支持分公司经营的数据应用时,也可以作为调研访谈的参考吧。
对于报表点击情况的简要分析就到此为止了。我到达了分析的目标,也顺便演练了数据筛选、作图、相关性分析等工作。除掉数据整理的工作,核心代码也就不到二十句,就做出了有点意思的功能了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在分类变量关联分析中(如 “吸烟与肺癌的关系”“性别与疾病发病率的关联”),卡方检验 P 值与 OR 值(比值比,Odds Ratio)是 ...
2025-11-05CDA 数据分析师的核心价值,不在于复杂的模型公式,而在于将数据转化为可落地的商业行动。脱离业务场景的分析只是 “纸上谈兵” ...
2025-11-05教材入口:https://edu.cda.cn/goods/show/3151 “纲举目张,执本末从。” 若想在数据分析领域有所收获,一套合适的学习教材至 ...
2025-11-05教材入口:https://edu.cda.cn/goods/show/3151 “纲举目张,执本末从。” 若想在数据分析领域有所收获,一套合适的学习教材至 ...
2025-11-04【2025最新版】CDA考试教材:CDA教材一级:商业数据分析(2025)__商业数据分析_cda教材_考试教材 (cdaglobal.com) ...
2025-11-04在数字化时代,数据挖掘不再是实验室里的技术探索,而是驱动商业决策的核心能力 —— 它能从海量数据中挖掘出 “降低成本、提升 ...
2025-11-04在 DDPM(Denoising Diffusion Probabilistic Models)训练过程中,开发者最常困惑的问题莫过于:“我的模型 loss 降到多少才算 ...
2025-11-04在 CDA(Certified Data Analyst)数据分析师的工作中,“无监督样本分组” 是高频需求 —— 例如 “将用户按行为特征分为高价值 ...
2025-11-04当沃尔玛数据分析师首次发现 “啤酒与尿布” 的高频共现规律时,他们揭开了数据挖掘最迷人的面纱 —— 那些隐藏在消费行为背后 ...
2025-11-03这个问题精准切中了配对样本统计检验的核心差异点,理解二者区别是避免统计方法误用的关键。核心结论是:stats.ttest_rel(配对 ...
2025-11-03在 CDA(Certified Data Analyst)数据分析师的工作中,“高维数据的潜在规律挖掘” 是进阶需求 —— 例如用户行为包含 “浏览次 ...
2025-11-03在 MySQL 数据查询中,“按顺序计数” 是高频需求 —— 例如 “统计近 7 天每日订单量”“按用户 ID 顺序展示消费记录”“按产品 ...
2025-10-31在数据分析中,“累计百分比” 是衡量 “部分与整体关系” 的核心指标 —— 它通过 “逐步累加的占比”,直观呈现数据的分布特征 ...
2025-10-31在 CDA(Certified Data Analyst)数据分析师的工作中,“二分类预测” 是高频需求 —— 例如 “预测用户是否会流失”“判断客户 ...
2025-10-31在 MySQL 实际应用中,“频繁写入同一表” 是常见场景 —— 如实时日志存储(用户操作日志、系统运行日志)、高频交易记录(支付 ...
2025-10-30为帮助教育工作者、研究者科学分析 “班级规模” 与 “平均成绩” 的关联关系,我将从相关系数的核心定义与类型切入,详解 “数 ...
2025-10-30对 CDA(Certified Data Analyst)数据分析师而言,“相关系数” 不是简单的数字计算,而是 “从业务问题出发,量化变量间关联强 ...
2025-10-30在构建前向神经网络(Feedforward Neural Network,简称 FNN)时,“隐藏层数目设多少?每个隐藏层该放多少个神经元?” 是每个 ...
2025-10-29这个问题切中了 Excel 用户的常见困惑 —— 将 “数据可视化工具” 与 “数据挖掘算法” 的功能边界混淆。核心结论是:Excel 透 ...
2025-10-29在 CDA(Certified Data Analyst)数据分析师的工作中,“多组数据差异验证” 是高频需求 —— 例如 “3 家门店的销售额是否有显 ...
2025-10-29