京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R读写Excel文件中数据的方法
用R语言读写Excel的方法有很多,但每种方法都有让人头疼的地方,如xlsx包的代码复杂,只支持Excel2007;RODBC不易理解,限制太多,程序不稳定,会出各种怪毛病。另存为csv格式的方法倒是比较通用比较稳定,但又存在操作麻烦,无法程序化处理多个文件的问题。提取xml也是个办法,但步骤太多代码太复杂,令人望而生畏。用剪贴板转换也不好,这同样需要人工参与,还不如存为csv。
相比之下,用gdata包来读取,配合WriteXLS写入Excel则可以很好的避开上述麻烦。这两个包都支持Excel2003和Excel2007,运行稳定,代码简单直观,也不需要人工参与。下面用一个例子来说明这两个函数包读写Excel的方法。
目标:
ordersData目录下有多个结构相同的Excel文件,有些是Excel2007格式,有些是Excel2003格式,这些文件存储着历年来的销售订单。请读取这些文件,并统计出每个客户的总销售额,最后将结果写入result.xlsx。下面是2011.xlsx的部分数据:
代码:
library(gdata)
library(WriteXLS)
setwd("E: /ordersData")
fileList<-dir()
orders<-read.xls(fileList[1])
for (file in fileList[2:length(fileList)]){
orders<-rbind(orders,read.xls(file))
}
result<-aggregate(orders[,4], orders[c(2)],sum)
WriteXLS("result","result.xlsx")
result.xlsx中的部分数据如下:
代码解读
1、library(gdata)和library(WriteXLS)这两句代码用来引入第三方函数包,这两个包具有read.xls和WriteXLS函数,可以分别执行读取和写入Excel的动作。
2、fileList<-dir()这句代码列出了目录内的所有文件,之后的for语句则是循环读取文件,并将数据拼合到数据框orders中。如果目录内有其他文件,则应当用通配符来过滤。
3、result<-aggregate(orders[,4], orders[c(2)],sum),这句代码用来执行分组汇总,其中orders[,4]代表汇总列(即Amount),orders[c(2)]代表分组列(即Client)。
4、read.xls和WriteXLS虽然来自于不同的包,但都支持data.frame数据类型,因此可以很好的配合起来。另外,read.xls函数可以自动识别Excel2003和Excel2007格式,使用起来非常方便。
5整段代码都很简洁,初学者可以轻松掌握。
注意事项:
1.版本
gdata和WriteXLS不是R语言自带的库函数,而是第三方包,因此需要额外下载安装。另外,这两个函数包都会用到Perl环境,因此挑选合适版本的Perl尤为重要。经过尝试,当R语言的版本是2.15.0时,gdata最匹配的版本是2.13.3,WriteXLS的版本号则是3.5.0,但用最新的Perl环境与之配合时会出问题,需要使用旧一点的5.14.2版本才行,否则会报以下错误:
Error in xls2sep(xls, sheet, verbose = verbose, ..., method = method, :
Intermediate file 'C:\Users\Thim\AppData\Local\Temp\RtmpMHvLZS\file224060624738.csv' missing!
2.性能
读写小文件没问题,但读写稍大些的文件时会发现gdata和WriteXLS的性能极差(这也许是Perl的原因),比如读一个8列20万行的Excel就需要8到10分钟。如果特别关注性能,可以使用xlsx函数包。当然,这样一来就无法支持Excel2003了。事实上,xlsx的性能并不比gdata强太多,真正要解决性能问题,还是应当将所有的Excel文件都转为2007格式,并解压出里面的xml文件,通过解析xml文件来读取数据。
替代方案
对于R语言中存在的版本冲突和性能问题,我们也可以使用Python、集算器、Perl等语言来解决。和R语言一样,它们都可以读写Excel文件并进行数据计算。下面简单介绍集算器和Python的解决方案。
集算器已将访问EXCEL的功能打入安装包,无需单独下载第三方包,支持读写Excel2003和Excel2007,对更老的版本以及Excel2010也支持。代码如下:

这个方案要比R语言难用多了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在用户从“接触产品”到“完成核心目标”的全链路中,流失是必然存在的——电商用户可能“浏览商品却未下单”,APP新用户可能“ ...
2026-01-14在产品增长的核心指标体系中,次日留存率是当之无愧的“入门级关键指标”——它直接反映用户对产品的首次体验反馈,是判断产品是 ...
2026-01-14在CDA(Certified Data Analyst)数据分析师的业务实操中,“分类预测”是高频核心需求——比如“预测用户是否会购买商品”“判 ...
2026-01-14在数字化时代,用户的每一次操作——无论是电商平台的“浏览-加购-下单”、APP的“登录-点击-留存”,还是金融产品的“注册-实名 ...
2026-01-13在数据驱动决策的时代,“数据质量决定分析价值”已成为行业共识。数据库、日志系统、第三方平台等渠道采集的原始数据,往往存在 ...
2026-01-13在CDA(Certified Data Analyst)数据分析师的核心能力体系中,“通过数据建立模型、实现预测与归因”是进阶关键——比如“预测 ...
2026-01-13在企业数字化转型过程中,业务模型与数据模型是两大核心支撑体系:业务模型承载“业务应该如何运转”的逻辑,数据模型解决“数据 ...
2026-01-12当前手游市场进入存量竞争时代,“拉新难、留存更难”成为行业普遍痛点。对于手游产品而言,用户留存率不仅直接决定产品的生命周 ...
2026-01-12在CDA(Certified Data Analyst)数据分析师的日常工作中,“挖掘变量间的关联关系”是高频核心需求——比如判断“用户停留时长 ...
2026-01-12在存量竞争时代,用户流失率直接影响企业的营收与市场竞争力。无论是电商、互联网服务还是金融行业,提前精准预测潜在流失用户, ...
2026-01-09在量化投资领域,多因子选股是主流的选股策略之一——其核心逻辑是通过挖掘影响股票未来收益的各类因子(如估值、成长、盈利、流 ...
2026-01-09在CDA(Certified Data Analyst)数据分析师的工作场景中,分类型变量的关联分析是高频需求——例如“用户性别与商品偏好是否相 ...
2026-01-09数据库中的历史数据,是企业运营过程中沉淀的核心资产——包含用户行为轨迹、业务交易记录、产品迭代日志、市场活动效果等多维度 ...
2026-01-08在电商行业竞争日趋激烈的当下,数据已成为驱动业务增长的核心引擎。电商公司的数据分析师,不仅是数据的“解读官”,更是业务的 ...
2026-01-08在数据驱动决策的链路中,统计制图是CDA(Certified Data Analyst)数据分析师将抽象数据转化为直观洞察的关键载体。不同于普通 ...
2026-01-08在主成分分析(PCA)的学习与实践中,“主成分载荷矩阵”和“成分矩阵”是两个高频出现但极易混淆的核心概念。两者均是主成分分 ...
2026-01-07在教学管理、学生成绩分析场景中,成绩分布图是直观呈现成绩分布规律的核心工具——通过图表能快速看出成绩集中区间、高分/低分 ...
2026-01-07在数据分析师的工作闭环中,数据探索与统计分析是连接原始数据与业务洞察的关键环节。CDA(Certified Data Analyst)作为具备专 ...
2026-01-07在数据处理与可视化场景中,将Python分析后的结果导出为Excel文件是高频需求。而通过设置单元格颜色,能让Excel中的数据更具层次 ...
2026-01-06在企业运营、业务监控、数据分析等场景中,指标波动是常态——无论是日营收的突然下滑、用户活跃度的骤升,还是产品故障率的异常 ...
2026-01-06