京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据分析流程这么长,产品经理如何一人搞定?
我2002年入行,那个时候还没有“产品经理”这个词,我的主要工作是为业务部门跑数据并且制作报表, 就是传说中“跑数据”、“做报表”的那个苦逼数据仓库工程师。
2007年之前我一直在为制造型企业建数据仓库,直到去了美国的之后,才开始进入到互联网,服务过两家公司,Linkedin 4年和 eBay 3年多。天天和产品经理、数据分析师在一起,帮助他们准备需要的数据、分析产品和用户,最后把分析的结果做到产品里面去。走上了数据采集 – 处理 – 清洗 – 展现 – 分析 – 数据产品的道路。
一个互联网公司要做好 Growth,就要做好产品体验。想要做好产品体验,产品经理第一需要的就是数据分析支持,有了数据才能开始Growth Hacker…此处省去10000字关于 Growth Hacker。
对于产品经理而言,他们关心的是什么呢?产品经理对网站或者是 APP 的 UI 、UX 是最熟悉的,因为他们参与了其中的设计:用户应该怎么交互,有哪些交互上面不方便的地方,每一级菜单 用户交互的流程,交互上的死角和边界;然后是设计,UI 是不是够简洁,美观,吸引人?哪些链接需要加强用户关注度,哪些链接需要减低用户的关注度。总而言之,都是为了用户体验,好的用户体验才能带来用户活跃,提高增长。
比如网页端( APP 端同理):
一个合格的数据分析师要能够制作可视化的报表,能够用不同的图形表达分析的结果。比如下面的可视化报表:
分析师构建报表的数据从哪里来呢?在数据库。
数据库里面有成百上千种表,一个合格的数据分析师首要的是知道数据在哪里?存在哪些表里面:
“哪里有页面浏览的表,哪里有搜索的表,哪里有广告的展现,点击的表,哪里有手机用户事件的表,哪里有用户属性的表,这些表每个字段对应了哪些维度和指标,哪里有宏观的已经计算好的指标,哪里有微观的详细的用户事件,还有很多过滤条件等等。”
对于一个刚入职的分析师,即使是有专人带的情况下,也是需要一定的时间才能成长的,不然很可能提供了错误的数据, 导致了错误的决策。
如下图是数据分析师们熟悉的数据库结构,可以帮助他们迅速的找到表的定义和字段的定义:
数据工程师设计并构建了上面的数据库模型,同时他们也要负责源源不断的把数据插入到这些数据库的表中,这些数据可以存在数据库里面,也可以存在 Hadoop 的数据集群中。
可是数据库里面存了所有我们能够支持数据分析师的数据吗? 当分析师在数据库里面找不到数据的时候, 就需要数据工程师需要从各种地方重新调取(此处省略关于实时数据流,Hadoop 集群,ETL,数据聚合等等关于技术的10000字)。
总之如果要得到没有事先收集的用户行为事件数据,就要在前端的代码里面埋事件代码,也就是在用户事件产生的源头埋点,才能在服务端得到相应的日志数据。
在技术上 Linkedin 为互联网日志做出了贡献,开源了 Kafka。什么是 kafka?就是可以非常实时的接受客户端发过来的实时事件数据并生成日志数据,然后发送到后端服务器上。比如腾讯,今日头条,新浪等等互联网公司都用 Kafka 收集日志的。
日志是这个样子的:
以上的这些都是数据,不同的人看到的角度是不同的。如下图:
从工程的角度出发,数据处理的顺序是这样的:
第一步:先埋点
第二步:收集日志
第三步:建立数据库
第四步:分析数据
第五步:得出产品经理要的分析结果
看起来这个链条很长,但是GrowingIO可以把它缩短,如何缩短?在一开始就从产品经理的角度来看这个问题。
从产品经理的角度出发,数据处理的顺序是这样的:
第一步:产品经理直接圈选,看数据结果。
在保存了用户事件之后,还可以自由的创造看板。如下图
产品经理和数据分析师可以在很短的时间能创建出看板,从事件的定义到产生分析结果,只要短短几秒钟,而且还追溯了过去7天的历史数据。
不仅仅如此,GrowingIO 还提供用户分群、用户细查、事件留存和数据下载等高级功能。
我们现在通过云端软件服务形式,制作了一个简单容易上手的系统,可以让初创公司快速地,低成本地获得只有大公司才玩得起的实时大数据分析系统。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07