京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R中大型数据集的回归
众所周知,R语言是一个依赖于内存的软件,就是说一般情况下,数据集都会被整个地复制到内存之中再被处理。对于小型或者中型的数据集,这样处理当然没有什么问题。但是对于大型的数据集,例如网上抓取的金融类型时间序列数据或者一些日志数据,这样做就有很多因为内存不足导致的问题了。
这里是一个具体的例子。在 R 中输入如下代码,创建一个叫 x 的矩阵和叫 y 的向量。
如果用内置的 lm 函数对 x 和 y 进行回归分析,就有可能出现如下错误(当然,也有可能因为内存足够而运行成功):
本文代码运行的电脑的配置是:
CPU: Intel Core i5-2410M @ 2.30 GHz
Memory: 2GB
OS: Windows 7 64-bit
R: 2.13.1 32-bit
在 R 中,每一个 numeric 数 占用 8 Bytes,所以可以估算到 x 和 y 只是占用 5000000 7 8 / 1024 ^ 2 Bytes = 267 MB,离运行的电脑的内存 2 GB 差很远。问题在于,运行 lm() 函数会生成很多额外的变量塞满内存。比如说拟合值和残差。
如果我们只是关心回归的系数,我们可以直接用矩阵运算来计算 β^ :
在本文运行的计算机中,这个命令成功执行, 而且很快(0.6秒)(我使用了一个优化版本的 Rblas, 下载)。然而,如果样本变得更加大了,这个矩阵运算也会变得不可用。可以估算出,如果样本大小为 2GB / 7 / 8 Bytes = 38347922 ,x 和 y 自己就会占用了全部内存,更不要说其他计算过程中出现的临时变量了。
怎么破?
一个方法就是用数据库来避免占用大量内存,并且直接在数据库中执行 SQL 语句等。数据库使用硬盘来保存数据,并且执行 SQL 语句时只是占用少量内存,所以基本上不用过于担心内存占用。不过有得有失,要更加关注完成任务所占用的时间。
R 支持很多数据库,其中 SQLite 是最轻量级和简单的。有一个 RSQLite 包,允许用户在 R 中对 SQLite 进行操作。这些操作包括了对 SQLite 数据库进行读写,执行 SQL 语句和在 R 中获取执行结果。所以,如果我们能够把需要的算法“翻译”到 SQL 语句版本,数据集的大小只受限于硬盘的大小和我们能够接受的执行时间。
采用上面的那个例子,我这里说明我们会怎样用数据库和 SQL 语句来对数据集进行回归。首先我们要把数据塞到硬盘上面。
上述代码有很多 rm() 和 gc() ,函数,这些函数是用来移除没有用的临时变量和释放内存。当代码运行完毕的时候,你就会发现在你的工作空间中有一个 320M 左右的 regression.db 文件。然后就是最重要的一步了:把回归的算法转化为 SQL。
我们有
β^=(X′X)−1X′y
而且,无论 n 有多大,X′X 和 X′y 的大小总是 (p+1)∗(p+1) 。如果变量不是很多,R 处理矩阵逆和矩阵乘法还是很轻松的,所以我们的主要目标是用 SQL 来计算 X′X 和 X′y 。
由于 X=(x0,x1,…,xp),所以 X′X 可以表达为:
$$%
而每一个矩阵元素都可以用 SQL 来计算,比如说:
我们可以用 R 来生成 SQL 语句,然后把语句发送到 SQLite :
可以看出差别是舍入误差导致的。
以上计算用了大约 17 秒,远远超出矩阵运算的时间。不过它也几乎没有占用额外的内存空间。实际上我们采用了“时间换空间”的策略。此外,你可能还发现,我们可以通过多个对数据 库的连接同步地计算 sum(x0*x0), sum(x0*x1), ..., sum(x5*x5) ,所以如果你有一个多核的服务器(而且硬盘足够快),你还可以通过适当的安排大量地减少运行时间。数据分析培训
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01