京公网安备 11010802034615号
经营许可证编号:京B2-20210330
用R语言分析报表访问的相关性
用R语言分析报表访问的相关性
1.起因
公司有几个提供数据系统,我负责其中一些系统的日常运维。其中最大的一个系统(有上千张的报表、清单)偶尔会有一些状况出现。而如果早上有问题,客服中心(呼叫中心)立即会对此进行严重投诉,并强调所有坐席都受到影响。印象中此类投诉一般出现在上午9点,而到了其他时间段,就算系统出现状况,他们也不会有投诉了。所以一直想分析一下客服中心的访问模式、访问重点是什么。另外,对于报表的总体访问情况也一直很有兴趣看一看。
这个工作一直没有去做。原因多种多样。最近有点时间,就打算用R来分析一下看看会有什么结果。
2.实战
a.数据整理。
进行数据分析,不能避免的第一步就是数据提取和整理。报表的每次点击都会有日志存放在数据库中,从最近一次系统升级到现在经过了19个月,一共有38万次点击,点击记录、点击用户、用户所属单位等信息分别存放在不同的表中。初始的关联工作我就利用数据库来完成了。也尝试过倒出来用R的merge函数,但是发现运行后R崩溃了。感觉是几十万的数据进行merge对我的机器来说可能太大了一些。既然手边有数据库,那很多初期工作就可以交给sql了,然后再利用R对初步整理好的数据框进行后续的各种处理。
最后生成的数据文件是如下格式的(csv文件)(部分字段进行了处理,以下是的简化版,呃.....实际折腾数据的过程总是有点复杂的):
"date","yyyymm","yyyy","mm","dd","day","hour","rpt_name","tag","dept"
"20120627","201206","2012","06","27","4","10","EVT_电话记录","事务报表","客户服务中心"
"20120627","201206","2012","06","27","4","10","SSR_投诉清单","投诉报表","东区"
....
字段的含义很明确,依次是:日期、年月、年、月、日、星期(1代表周日,2代表周一,etc)、小时、报表名、二级单位。
将数据读入。由于每个字段都有分析价值,所以每个字段都设为因子,并按照字符方式读入:
rptd <- read.csv("vis130730.csv",head=TRUE,stringsAsFactors=TRUE,sep=",",na.strings=" ",colClasses=c("character"))
读入数据后,用str(rptd)检查数据框结构时,发现所有的字段都不是因子。这是为什么?我不是已经设定stringsAsFactors=TRUE了么?看了一下手册,原来对于指定了字段类型的字段都将作为非因子读入,该选项无效。那就先这样吧,等需要的时候再进行因子化。
好了,数据初步整理完毕,接下来就要借助可视化分析了。这应该是R的强项之一了。
加载所需的加装包:
library(plyr)
library(reshape)
library(ggplot2)
b.客服中心在一天之中的报表访问情况是什么样的呢?
筛选出客服中心的数据(约有接近8万条,是总访问量的20%):
rptdkf <- rptd[rptd$dept=="客户服务中心",]
然后按照小时来绘图:
qplot(hour,data=rptdkf,xlab="小时",ylab="访问次数")
我们看到这样的结果:

有点令人失望。虽然大量访问集中在上午,但是并没有出现我预想中的“访问非常集中在8-9点”这样的情况,而是符合一般上午时点访问最多(8-11点,8点段访问少于9点段,应该是因为8:30才上班),中午休息,然后下午有一定访问量这种模式。
那么,在8-10点之间访问最多的报表是哪些呢?这些报表应该是维护的重中之重吧。我们再次进行筛选,并统计所有报表在这段时间的访问次数,按照访问次数的高低进行排序,可以看到有几张报表的访问频次远远超过其他报表:
rptdkf1 <- rptd[(rptdkf$hour=="08" | rptdkf$hour=="09" ),]
cnt <- ddply(rptdkf,.(rpt_name),nrow)
cnt <- cnt[order(cnt$V1,decreasing=TRUE),]
cnt
(结果略,可以发现有5张报表的访问量是其他报表的几倍、十几倍)
可以预计这些数据对于客服中心的人员是最重要,这些可以作为大家运行保障的重点(嗯,这话很像领导的口气)。这个信息当然也可以通过用户访谈得到,但是用户可能出于各种原因夸大重点报表的范围,对运维形成误导。而通过访问数据来分析就可能更准确地反映问题了。这并不是说访谈不重要,可能确实有些报表是少量管理人员每天上班要重点关注的,这需要通过访谈来甄别发现。这个工作就暂略了。
c.总体访问情况:
按照月份绘制了报表总体曲线,如下:
qplot(yyyymm, data=rptd,xlab="月份",ylab="访问次数")

可以看到访问量今年有所减少。13年的每个月对应12年的相应月份看也是在减少。这个可能是其他新的报表系统的替代作用。所以如果结合对其他报表系统访问情况的分析能看出一些其他的信息来。
分公司对报表的访问量占到了总访问量的60%,我们来看看他们的访问模式是什么样的。由于市场部等管理部门对各个分公司的工作有管理、指导的职责,所以我们将他们(他们占总访问量占10%)也纳入分析,我们用%in%筛选出这些单位,并按照个单位作图。
我们按照按照各个分公司绘制了按月的访问曲线:
rptdsub <- rptd[rptd$dept %in% c("宝山","北区","崇明","东区","奉贤","嘉定","金山","南区","浦东","青浦","莘闵","松江","西区","中区","市场部","政企客户部","公众客户部"),]
qplot(yyyymm, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

可以看到各个单位的访问量是有很大差异,虽然总体的访问次数是略有下降的,但是对应到不同的单位,可以看到有的在增加。或许这些访问在增加的单位加大了数据分析的力度,也可能是他们有分析的需求,但是对其他新的数据系统不够了解,所以没有好好利用新系统,而只能重点使用该系统。我们还可以看到浦东分公司的访问量最大(实际上超过了管理部门之和),中区分公司的访问量下降最明显。另外市区公司的访问量普遍高于郊区公司。这个可能和郊区竞争不激烈、人员配备较少有关。
再按照访问的钟点作图:
qplot(hour, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

我们还可以看到有些单位(金山、宝山)上班可能比标准时间早半个小时,因为他们在8点档的访问量超过9点档,与其他单位明显不同。有些单位下了班后就没有点击量了,有些单位明显勤快很多。另外,我们还可以注意到有些单位8点档几乎没有访问量,而到了9点的访问量也不是很多(呃,就不点名了,可能是他们的工作重点有所不同吧.....)
d.访问相关性。
最后,我们来看看分公司和市场等管理部门之间的访问相关性。我们采用多维定标(MDS)算法(参考《机器学习:实用案例解析》)。
首先我们需要建立一个访问矩阵,每行是各个单位,每列是各张报表。如果某个单位访问了某张报表,则对应的单元格填1,如果没有就填0。这个操作在数据库上好像很不好办(我不知道简单的实现办法,如果有人知道,烦请赐教)。原来想用循环的方式来做,忽然想到了reshape包的cast命令应该能完成这样的工作:
mds1 <- cast(mdsd, abbr~rpt_name)
第一列是单位的名称,我们需要将其剔除,剩余部分转化为一个矩阵。第一列转化为行名,原来的字段名(剔除第一个的dept)作为列名:
mds.m <- as.matrix(mds[,2:ncol(mds)])
row.names(mds.m) <- t(as.matrix(mds[,1]))[1,]
colnames(mds.m) <- colnames(mds)[2:ncol(mds)]
矩阵做好了,代码非常简洁,我相信,光凭reshape包,R就物超所值了。看了一下,发现交叉点上的值不是0和1,而是访问次数。我们再将所有非0的值都赋为1:
mds.m[mds.m>0] <- 1
好了,我们得到我们要的矩阵了,以下就是按部就班的操作:计算距离并作图:
mds.mute <- mds.m %*% t(mds.m)
mds.dist <-dist(mds.mute)
mds.g <- cmdscale(mds.dist)
plot(mds.g, type='n')
text(mds.g, row.names(mds.g))
最终看到的图如下:

真是令人意外:各个分公司与管理部门之间所看的报表情况竟然如此旗帜鲜明地分成两个聚类。这说明什么呢?二级公司与管理部门之间的分析思路和重点不同?管理部门没有将管理思路贯彻到各个分公司?还是说管理部门有秘而不宣的武器呢?
另外,分公司之间也有比较明显的区分:市区公司和郊区公司的关注重点明显有一定的差异。这个在IT部门以后开发支持分公司经营的数据应用时,也可以作为调研访谈的参考吧。
对于报表点击情况的简要分析就到此为止了。我到达了分析的目标,也顺便演练了数据筛选、作图、相关性分析等工作。除掉数据整理的工作,核心代码也就不到二十句,就做出了有点意思的功能了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21在实际业务数据分析中,单一数据表往往无法满足需求——用户信息存储在用户表、消费记录在订单表、商品详情在商品表,想要挖掘“ ...
2026-01-21在数字化转型浪潮中,企业数据已从“辅助资源”升级为“核心资产”,而高效的数据管理则是释放数据价值的前提。企业数据管理方法 ...
2026-01-21在数字化商业环境中,数据已成为企业优化运营、抢占市场、规避风险的核心资产。但商业数据分析绝非“堆砌数据、生成报表”的简单 ...
2026-01-20定量报告的核心价值是传递数据洞察,但密密麻麻的表格、复杂的计算公式、晦涩的数值罗列,往往让读者望而却步,导致核心信息被淹 ...
2026-01-20在CDA(Certified Data Analyst)数据分析师的工作场景中,“精准分类与回归预测”是高频核心需求——比如预测用户是否流失、判 ...
2026-01-20在建筑工程造价工作中,清单汇总分类是核心环节之一,尤其是针对楼梯、楼梯间这类包含多个分项工程(如混凝土浇筑、钢筋制作、扶 ...
2026-01-19数据清洗是数据分析的“前置必修课”,其核心目标是剔除无效信息、修正错误数据,让原始数据具备准确性、一致性与可用性。在实际 ...
2026-01-19在CDA(Certified Data Analyst)数据分析师的日常工作中,常面临“无标签高维数据难以归类、群体规律模糊”的痛点——比如海量 ...
2026-01-19在数据仓库与数据分析体系中,维度表与事实表是构建结构化数据模型的核心组件,二者如同“骨架”与“血肉”,协同支撑起各类业务 ...
2026-01-16在游戏行业“存量竞争”的当下,玩家留存率直接决定游戏的生命周期与商业价值。一款游戏即便拥有出色的画面与玩法,若无法精准识 ...
2026-01-16为配合CDA考试中心的 2025 版 CDA Level III 认证新大纲落地,CDA 网校正式推出新大纲更新后的第一套官方模拟题。该模拟题严格遵 ...
2026-01-16在数据驱动决策的时代,数据分析已成为企业运营、产品优化、业务增长的核心工具。但实际工作中,很多数据分析项目看似流程完整, ...
2026-01-15在CDA(Certified Data Analyst)数据分析师的日常工作中,“高维数据处理”是高频痛点——比如用户画像包含“浏览次数、停留时 ...
2026-01-15在教育测量与评价领域,百分制考试成绩的分布规律是评估教学效果、优化命题设计的核心依据,而正态分布则是其中最具代表性的分布 ...
2026-01-15在用户从“接触产品”到“完成核心目标”的全链路中,流失是必然存在的——电商用户可能“浏览商品却未下单”,APP新用户可能“ ...
2026-01-14在产品增长的核心指标体系中,次日留存率是当之无愧的“入门级关键指标”——它直接反映用户对产品的首次体验反馈,是判断产品是 ...
2026-01-14在CDA(Certified Data Analyst)数据分析师的业务实操中,“分类预测”是高频核心需求——比如“预测用户是否会购买商品”“判 ...
2026-01-14在数字化时代,用户的每一次操作——无论是电商平台的“浏览-加购-下单”、APP的“登录-点击-留存”,还是金融产品的“注册-实名 ...
2026-01-13在数据驱动决策的时代,“数据质量决定分析价值”已成为行业共识。数据库、日志系统、第三方平台等渠道采集的原始数据,往往存在 ...
2026-01-13