京公网安备 11010802034615号
经营许可证编号:京B2-20210330
2016年可以说是大数据市场热火朝天的一年,无论是大型企业、中小型企业纷纷伸长了脖子想要和大数据这个互联网因素浓郁的技术挂钩。许多的企业也走在开始尝试用大数据技术进行转型的路上…
然而“大数据切实利用起来”还是需要落实落地,与几年前我们刚开始接触的Hadoop相比,数据分析变得更重要。
先来看2017大数据行业的五大趋势
物联网(IoT)和大数据是同一枚硬币的两面;数十亿与互联网连接的“物件”将生产大量数据;深度学习是一套基于神经网络的机器学习技术,它仍在发展之中,不过在解决业务问题方面显示出大有潜力。它让计算机能够从大量非结构化数据和二进制数据中找出感兴趣的内容,并且推导出关系,而不需要特定的模型或编程指令;内存中分析不像常规的商业智能(BI)软件对存储在服务器硬盘上的数据运行查询,内存中技术查询的是载入到内存中的信息,这可以通过减少或甚至消除磁盘输入/输出瓶颈来显著提升分析性能。就大数据而言,正是由于TB级系统和大规模并行处理,让内存中分析技术更令人关注;云计算混合云和公共云服务越来越受欢迎。大数据成功的关键是在弹性基础设施上运行(Hadoop)平台;Apache Spark点亮在大数据。流行的Apache Spark项目提供了Spark Streaming技术,通过主要采用一种在内存中微批量处理的方法,近实时地处理数据流。它已从Hadoop生态系统的一部分,变成许多企业青睐的一种大数据平台。
再看大数据行业最火爆的职位需求
数据分析到底是什么?很多人都在嘴边讨论它们,却没有几个人真正见过它。这是当下科技行业最为火爆的职位,这里举例一个互联网科技公司Twitter对于一个数据分析师的要求是什么?他们的实际工作内容究竟是哪些?
1. 机器学习已经在产品中扮演越来越重要的角色,而这之前完全是「机器学习」的禁区。最典型的例子就是「当你离开时」这个功能。当用户离开页面或者电脑,去干别的事情后再次返回页面,电脑会立刻给你推送出来某些由你关注的人所发出,而有可能被你错过的「优质内容」。
2. 开发工具越来越优秀了。整个团队摆脱了对 Pig 的依赖,全新的数据管道是在 Scalding 中写出来的。
3. 从团队组织上而言, 已经转向了一个嵌入式的模型中。其中数据分析比以往更加紧密地与产品/工程团队发生着联系。
现如今,有太多的人在如何快速成为一名数据分析师上表达着看法,给出自己的建议。小编在知乎上面也发现了网友们的热烈讨论:
网友邹昕认为可以有一个快速成为数据分析师的途径,但是他给了一个前提:
不同行业不同公司要求会很不一样,比如说银行做数据分析、建模会要求 SAS/SQL,而互联网行业数据分析只要会 SQL 就可以了。再比如说小公司可能会要求还会 R/Python 什么的,但是稍微中型一点的公司比如说 Facebook 只需要会 SQL 就行了。乍一看有点奇怪,但其实也不奇怪,因为大一点的公司基础设施 (infra) 做得好,很多事情比如说 A/B test 这种都自动化了,不需要专门写代码。
接下来的内容都可以参照中型以上互联网公司为例:数据分析师需要三个方面的能力——技术(编程),数据分析方法,行业知识。
1. 技术
技术方面刚刚说了,就是SQL, 20 个小时,假设文科生,同时对自己要求高一点,最多 80 个小时可以搞定了。(参考SQL教程-w3cschool)重点需要注意的:where / group by / order by / left join / right join / inner join / null / not null / having / distinct / like / union / avg / sum / min / max,学完之后再搜索一下 "SQL hardest questions", 做做练习。
当然除了 SQL 之外,Excel 也是要会一点的。不过 Excel 这玩意儿基本多少都会那么些吧,比如说做个图,算算总合、平均之类的,稍微复杂点的数据透视表 (pivot) 就够了。话说我第一份工作的时候连数据透视表都不会,所以说如果你不会这个,那也没关系。
如果 SQL 上手比较快,时间充裕,那就练练 Tableau, 主要目的是看看都有什么样的图表,感受一下各自适用什么样的场景。具体怎么做图不是非常重要,真要用的时候搜索一下现学就好了。Tableau 很贵,所以下个试用版的就可以了,然后试用期学点最基本的就可以了。
这一共就假设用了 80 个小时吧,那么 8 天过去了(没算错,都要速成了,那还不每天学习 10 个小时)。
2. 数据分析方法
这里推荐一些书:Case in point. 经典的管理咨询的书,哪个版本的都无所谓了,印象中大概看了一半左右。好像是因为懒,所以没看完,也因为套路都是类似的,看一半也就差不多可以了。——5 天
Introduction to Probability Models by Sheldon M. Ross. 应该是出到第 11 版了,但内容应该区别不大,看第一章就可以了,需要搞清楚条件概率,这个概念还是有点重要的。——4 天
然后再找本统计基础的书(随便哪本教科书都差不多,实在不行的话把 wiki 上统计长条目下的多看几遍也可以),不要太纠结于理论、证明,时刻记住你要能把这些概念解释给不懂统计的人听,解释不清楚的东西你也不用搞清楚。搞清楚几种常见的分布,假设检验,假阳性,假阴性,区别估算,显著性差异,p-value,平均值,中位数,p1/p25/p50/p75/p99,相关性,因果性,幸存者偏差,大数定律,80/20。——10 天
Thinking, Fast and Slow. 当科普书看看就好,如果看不下去的话那就看《牛奶可乐经济学》。——2 天
3. 行业知识
很不幸,这一部分就真的没有什么书可以看的了,基本都靠搜索,总结,思考,再搜索,总结,思考。。。如果平时对互联网、科技行业相对比较关注,这一部分会上手很快,了解一些基本概念,试用一些产品,基本上 20 天肯定可以了。基本上把这些搞清楚,也差不多可以入门了吧。
知乎网友此人已死说:统计学无需置疑是一个数据分析师的核心功底,你只有学好了统计学才能谈得上数据分析。
但是统计学又常常是不够用的,我们还需要一些高级的模型来解决我们实际业务中的问题,比如:银行需要判断是否给某个客户发放信用卡 这就需要一个高级的二分类模型。这里我们的数据挖掘理论就派上用场了。
有了理论知识,我们需要用工具去实现我们的理论并加以应用。这个年代,已经没有人会去手工计算某个问题了,R和PYTHON就是最负盛名的数据分析工具。 关于R和PYTHON的地位,题主可以百度,谷歌,知乎等搜索一遍。 至于如何学习,请看上面的书单!
如果致力于在互联网领域发展,那么网页分析是你必看的一本书籍。这本是是大名鼎鼎的GA创始人著作,看一遍,做一遍会有一个不错的收获。
数据分析师是跟数据打交道的,我们的数据都是存储在数据库里面的,因此掌握必备的数据库技术是肯定要的!
结语
数据分析入门并不难,难的是之后的积累才是重点,如何在实际工作、项目中真正发挥数据分析的作用,产生价值。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07