京公网安备 11010802034615号
经营许可证编号:京B2-20210330
导语让我们抛掉“一定要努力”的鸡汤。
没有数学基础,没有编程基础,没有项目经验,但有一颗想成为数据分析师的心,有没有办法?
让我们抛掉“一定要努力”的鸡汤,扔掉“数据科学家必备”的书单,在本文中,我将给出一条方向明确,可操作的实现路径。
开篇前的定义:
本文中的”100小时成为数据分析师“,指在0基础(统计学基本不懂,代码基本不会,数据分析经验基本没有)的前提下,使用平均100个小时(随个人情况不同有所增减)左右的学习时间,获得互联网(包括电子商务)或零售等传统行业(不包括金融)入门级数据分析相关工作(产品、运营、营销等非技术类职位)的入职资格(入职仅仅是一个开始,真正的学习和挑战在工作中)。
目录:
一、整体了解数据分析——5小时
二、了解统计学知识——10小时
三、学习初级工具——20小时
四、提升PPT能力——10小时
五、了解数据库和编程语言——10小时
六、学习高级工具——10小时
七、了解你想去的行业和职位——10+小时
八、做个报告——25小时
九、投简历,面试,入职——N小时
新人们被”大数据“、”人工智能“、”21世纪是数据分析师的时代“等等信息吸引过来,立志成为一名数据分析师,于是问题来了,数据分析到底是干什么的?数据分析都包含什么内容?
市面上有很多讲数据分析内容的书籍,在此我推荐《深入浅出数据分析》,此书对有基础人士可称消遣读物, 但对新人们还是有一定的作用。阅读时可不求甚解,重点了解数据分析的流程、应用场景、以及书中提到的若干数据分析工具,无需纠结分析模型的实现。5个小时,足够你对数据分析工作建立初步的印象,消除陌生感。
15个小时只够你了解一下统计学知识,作为入门足够,但你要知道,今后随着工作内容的深入,需要学习更多的统计知识。
本阶段推荐书籍有二:《深入浅出统计学》《统计学:从数据到结论》,要了解常用数理统计模型(描述统计指标、聚类、决策树、贝叶斯分类、回归等),重点放在学习模型的工作原理、输入内容和输出内容,至于具体的数学推导,学不会可暂放一边,需要用的时候再回来看。
对于非技术类数据分析人员,初级工具只推荐一个:EXCEL。推荐书籍为《谁说菜鸟不会数据分析》,基础篇必须学习,提高篇不一定学(可用其他EXCEL进阶书籍),也可以学习网上的各种公开课。
本阶段重点要学习的是EXCEL中级功能使用(数据透视表,函数,各类图表适用场景及如何制作),如有余力可学习VBA。
作为数据分析人员,PPT制作能力是极其重要的一项能力,因此需要花一点时间来了解如何做重点突出,信息明确的PPT,以及如何把各类图表插入到PPT中而又便于更新数据。10个小时并不算多,但已经足够(你从来没做过PPT的话,需要再增加一些时间)。具体书籍和课程就不推荐了,网上一抓一大把,请自行搜索。
这个阶段有两个目标:学习基础的数据库和编程知识以提升你将来的工作效率,以及测试一下你适合学习哪一种高级数据分析工具。对于前者,数据库建议学MySQL(虽然Hadoop很有用但你不是技术职位,初期用不到),编程语言建议学Python(继续安利《深入浅出Python》,我真没收他们钱……)。数据库学到联合查询就好,性能优化、备份那些内容用不到;Python则是能学多少学多少。
虽然EXCEL可以解决70%以上的问题,但剩下30%还是需要高级工具来做(不信用EXCEL做个聚类)。高级分析工具有两个选择:SPSS和R。虽然R有各种各样的好处,但我给的建议是根据你在上一步中的学习感觉来定学哪一个工具,要是学编程语言学的很痛苦,就学SPSS,要是学的很快乐,就学R。不管用哪一种工具,都要把你学统计学时候学会的重点模型跑一遍,学会建立模型和小幅优化模型即可。
这里我在时间上写了个”+“号,因为这一步并不一定要用整块时间来学习,它是贯穿在你整个学习过程中的。数据分析师最需要不断提升的能力就是行业和业务知识,没有之一。你将来想投入哪个行业和哪个职位的方向,就要去学习相关的知识(比如你想做网站运营,那就要了解互联网背景知识、网站运营指标体系、用户运营知识等内容)。
你学习了那么多内容,但现在出去的话你还是找不到好工作。所有的招聘人员都会问你一句话:你做过哪些实际项目?(即使你是应届生也一样) 如果你有相关的项目经验或者实习经验,当然可以拿出来,但是如果没有,怎么办?答案很简单,做个报告给他们看,告诉招聘者:我已经有了数据分析入门级(甚至进阶级)职位的能力。同时,做报告也会是你将来工作的主要内容,因此也有可能出现另外一种情况:你费尽心血做了一个报告,然后发现这不是你想要的生活,决定去干别的工作了……这也是件好事,有数据分析能力的人做其他工作也算有一项优势。
在此只说做报告的几个要点:
1、先定好分析目标,梳理好分析逻辑,然后再做其他工作,否则要么没有结论,要么逻辑生硬不合理,要么多次返工……
2、数据来源:首选网上的各种公开数据库和数据源,国外的数据比较规整,国内的数据背景学习成本相对低;
3、数据清洗整理:这项工作通常要占到40%-50%甚至更多的时间,请做好多次重来的心理准备。
4、工具使用:如无能够解释分析过程和结果的信心,请多用描述统计多作图,少用聚类等分析模型,工具和模型是为分析目标服务的,不要为了使用而使用。
5、报告制作:注意三点:
(1)虽然”图比表好,表比字好“,但前提是你能清楚的表达出想要表达的内容,该用文字的时候还是要用文字;
(2)分析一定要有结论,结论一定要有数据支持;
(3)如果使用了一些你当前所属组织(公司或学校)的专有数据,请在具体的数值上打马赛克,且最好不要标注具体来源(写到某公司或某学校即可),这是作为一个数据分析师的职业素养,面试时有加分。
6、做好多次修改完善报告的心理准备。
投简历的时候不要看见职位里带”数据分析师“就投!带这个关键字的,有录入整理数据的最低级职位,也有需要写代码的开发人员(数据分析师,数据挖掘工程师,傻傻分不清楚),看好职位描述再投!需要3年以上工作经验的,可以投但不要抱希望;需要1年以上工作经验的,你手里有做好的报告,请转成PDF文件,然后向他们砸过去……很大几率能中。
面试时候基本上会问一些”你认为数据分析都包含哪些工作“,”你之前做过什么数据分析项目“,”你印象最深刻的项目是哪一个“,”你觉得数据分析哪部分最重要“,”你在工作中碰到过什么难题“之类的问题,你已经做过一份完整报告所以这些问题应该都能答上来,基本都是开放式问题,没有标准答案,不必紧张。如果碰上让你写代码或者做算法题的,默默退了吧,他们要招的是开发……
N次面试之后,准备入职吧,正式开始你作为数据分析师的征程。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27