京公网安备 11010802034615号
经营许可证编号:京B2-20210330
如何使用 Python 开始建立你的数据分析项目
现在有很多博文对复杂的机器学习算法和前沿的技术进行了展示,而这也促使数据科学家们慢慢变成了“社交控”(FOMO)。但数据分析的基本内容究竟是什么样的?你应当怎样安排项目结构?你需要使用什么样的工具?等等诸如此类的问题却鲜有人问津。本文将会对如何建立项目提供一些启发思路,以帮助你快速达到 在数据科学领域能有所产出 的境界。
项目结构
项目的结构总是为了契合人们的需求而得到不断完善,这会导致在一个团队中出现不同的项目构架。如果你或者团队中的其他人能够及时发现项目结构的重要性,并且这个概念在团队中得到推广,那么,你无疑是幸运的。
多年前作者偶然发现了 R 语言的项目模板 网站。从那之后,作者便一直提倡身边的人使用规范的项目结构。最近,DrivenData 发布了更为普适的 Cookiecutter Data Science 来构建项目结构。
而这些网站在项目构建方面的思路大致如下:
一个连贯且组织良好的结构,以便于人们协作
你的分析应当可复现,而你的项目结构可以满足这个需求
不应该从原始数据作为出发点开始你的项目,而应当假设原始数据不变,创建其他派生的文件
作者简略的项目结构如下所示:
example_project/
├── data/ <- The original, immutable data dump.
├── figures/ <- Figures saved by notebooks and scripts.
├── notebooks/ <- Jupyter notebooks.
├── output/ <- Processed data, models, logs, etc.
├── exampleproject/ <- Python package with source code.
│ └── __init__.py <-- Make the folder a package.
└── process.py <-- Example module.
├── tests/ <- Tests for your Python package.
└── test_process.py <-- Tests for process.py.
├── environment.yml <- Virtual environment definition.
├── README.md <- README with info of the project.
└── setup.py <- Install and distribute your module.
你可以在 这里 看到相关实例。
项目通常遵循另一种结构:
原始数据不变,存储在 data/中;
数据处理和相关输出图分别存储在不同的文件夹下,例如:figures/和output/;
笔记文件存储在notebooks/;
项目信息撰写在README.md中;
项目代码放置在独立的文件夹下。
实际上,你选择什么样的项目结构并不重要,只要它能符合你的工作流程,你也能坚持使用它。你应该尝试去理解何为项目,从而选择满足要求的项目结构。
虚拟环境
项目之间应当相互独立,你肯定不希望新的项目打乱了之前的工作成果。我们可以通过把不同项目的文件存储在不同的文件夹下实现独立性,但是不同项目之间也应当使用不同的 Python 环境。
虚拟环境依赖于不同的项目而相互独立,避免了包的冲突问题。每个虚拟环境都安装了特定版本的不同包。虚拟环境一中安装了版本为 1.11 的numpy库和版本为 0.18 的pandas库,而虚拟环境二中则仅仅安装了版本为 0.17 的pandas库。作者选取适用于数据科学的 conda 管理虚拟环境(可在 这里 看到选择它的原因)。
下列命令可以创建一个使用 Python 3.5 的新的 conda 虚拟环境,命名为 example_project:
$ conda install --name example_project python=3.5
激活虚拟环境( Windows 系统下将 source 省去):
$ source activate example_project
之后便可以安装所需的包了:
$ conda install pandas numpy jupyter scikit-learn
当你在不同的项目间跳转时,可以运行source deactivate命令取消激活,并激活新的项目虚拟环境。
一旦你熟练使用activate和deactivate命令,就会发现虚拟环境是一个很轻巧的工具来保证 Python 环境的独立。通过导出环境定义文件(例如,所有安装的包名和版本号),你的项目就很容易得到复现了。如果你想查看更多细节,可在Tim Hopper 的博文 中看到。
Git
每个项目都应该有自己的 Git 资源库。在每个项目创建一个资源库可以帮助你追踪每个项目的历史和解决在不同的项目间复杂的版本依赖问题。
又或者,你可以选择在一个资源库中包含多个项目,将所有内容存储在一个位置。这样做的缺点在于往往会因为合并冲突问题而告终(数据科学家通常并不能熟练使用 Git )。除了很多使用 Git 时出现的问题,这也会导致你的项目之间缺乏独立性。
创建 Git 资源库最简单的方法就是在你的 Git 远程主机托管服务(例如,Github 和 GitLab )上创建一个新的 Git 资源库,然后把它复制到本地:
$ git clone https://github.com/hgrif/example-project.git
你可以在这个空文件夹下构建你的项目结构。
如果你按照这个步骤执行,并准备在一个新文件夹下创建一些文件了。那么,你首先还需要在电脑上对 git 资源库进行初始化:
$ git init
然后在你的远程主机上创建一个新的 git 资源库,得到它的链接,并运行下列命令:
$ git remote add origin https://github.com/hgrif/example-project.git
该命令会添加链接为 https://github.com/hgrif/example-project.git 的远程资源库,并命令为 origin 。你可能需要把现有的 master分支推送到origin上:
$ git push --set-upstream origin master
在你的项目目录下创建.gitignore文件可以避免将图或数据误填加进资源库中。作者一般使用 针对 Python 的.gitignore文件 ,并且在文件中加入 data/、figures/ 和 output/ 文件夹,以便 Git 可以忽略它们。
既然 Git 已经设置好了,你就可以对核心内容使用git add和git commit命令了!
使用工具
使用一些工具可以帮助你摆脱那些重复性工作。
Python 中的cookiecutter包可根据模板自动创建项目文件夹。你可以使用现有的模板,例如,Cookiecutter Data Science 或者 作者的项目结构模板 ,或是创建你自己新的模板。
使用虚拟环境最好的方法就是选用支持它们的编辑器,比如:PyCharm 。你也可以使用 autoenv 或者 direnv 去激活虚拟环境,并设置环境的变量,如果你cd定位到一个工作目录下的话。
结论
对你的数据科学项目有一个良好的设置将会有助于同其他人协作,并且项目本身也会更容易复现。一个好的项目结构,一个虚拟环境和一个 git 资源库是每个数据科学项目的基石。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14