京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据主要是做三件事:对用户理解、对信息理解、对关系理解
大数据这个概念提了好多年。每次提到大数据的时候,都是个性化、精准化,大家能想到的就是这些。在很多年前,IBM和很多大互联网公司都在提这个话题。但是它真正产品化或者商业化的价值,是在2011、2012年以后才有了爆发性的增长。
它有一些原因:
第一个是这两年确实是随着社会化媒体的普及、数据的量爆发式的增长。大家每天在网上分享的文字、图片、视频,它的数据的规模要超过我们历史上任何时期。有价值的信息也越来越多。历史上,很多年前大家上互联网,信息无非就是各种网页,小网站、大网站。信息的价值不像现在这么充分。现在太多的信息反映了各位的动机或者各位的兴趣特征。比如说我儿子三岁,我经常会发我儿子的照片,发一些养孩子的心理感受。结果他就曝露了我兴趣的方向。这对我们数据的应用会很有帮助。不像以前你顶多看各种各样的网页,各家的网页也没有办法统一做大数据的分析。
还有一个比较重要的一点,也是我感触比较深的一点是开放。我们以前提到个性化,大家听过最多的有关大数据的案例就是沃尔玛的尿不湿,那就是大数据的雏形,如果我们把这个数据运用到网站说,大家想到最多的就是隐私。因为你的兴趣爱好触犯了我的隐私。但是现在微博、Twitter,facebook,很多社交化媒体的典型特点是开放的。QQ和微博最大的区别是,QQ的关系链,你的朋友是谁,大家是不知道的,前提是这是你的隐私。但是微博,你收听了谁、关注了谁,你发的每一条微博所有人都看得到。你使用这个产品,相当于你签了一个协议,我要开放。不能说你在这个基础上做一些数据的应用是侵犯隐私,这个在理论上是不成立的。因为每个人的特征,哪怕技术不去做,我们用肉眼把你的微博拉下来看一下,也大概能看一下你的领域,或者你的兴趣。这也给我们做大规模数据挖掘应用提供了一个非常大的前提。隐私的问题在产品形成之前就解决了。
我这里简单列了一下微博的数据情况,我们每天发的微博,还有图片,现在都是以数百亿的来计算。这里面有一个,除了你发微博本身,还有一个重要的就是社会网络,就是你的人际关系。在QQ的时候是没有办法做分析的,因为他是有隐私的。但是微博非常好的一点,你的社会关系我们可以很放心的来使用。因为是公开的。在腾讯微博这样一个产品里面,你会发现社交关系的数量达到了三百亿的量级。这里面有一个传播路径,你发了一条信息,它的传播的可能性轨迹,达到了万亿级别的路径。这就是一个很大的大数据。大家很难想象,微博这样一个产品,这样大的一个产品体系里面,我们拥有近千台的服务器用来计算,还不是用来做产品,不是用来提供服务,只是用来做离线的计算,运算出各种公式和结果,就需要近千台服务器。这些服务器和几年前的服务器性能、规模都有很大的区别,每台服务器的存储空间都有数个T,我们有近千台数个T的服务器做运算。这么简单的一件事情,就需要近千台服务器帮助大家运算,你到底跟哪个人可能是朋友,到底跟哪个人是你感兴趣的领域。在那天地震的时候,我们快速的分析出,运算一下现在有哪些地震情况,还是蛮有意思的,地域的分布,这些都是大数据的运用。大数据有两大类数据可以用。第一类是微博里面非常重要的,你发表、收听和关注这些全都是公开的。有一部分影视数据是典型浏览行为。这部分还是牵扯到应用情况。所以用的谨慎一些。
大数据能做什么?我们那么多地方探讨大数据,无非总结下来就做三件事:
第一,对信息的理解。你发的每一张图片、每一个新闻、每一个广告,这些都是信息,你对这个信息的理解是大数据重要的领域。
第二,用户的理解,每个人的基本特征,你的潜在的特征,每个用户上网的习惯等等,这些都是对用户的理解。
第三,关系。关系才是我们的核心,信息与信息之间的关系,一条微博和另外一条微博之间的关系,一个广告和另外一个广告的关系。一条微博和一个视频之间的关系,这些在我们肉眼去看的时候是相对简单的。
比如有条微博说这两天朝鲜绑架我们船的事,那条微博也大概是谈这件事的。人眼一眼就能看出来。但是用机器怎么能看出来这是一件事,以及他们之间的因果关系,这是很有难度的。然后就是用户与用户之间的关系。哪些人你愿意收听,是你的朋友,哪些是你感兴趣的领域,你是一个音乐达人,你是一个吃货,那个用户也是一个吃货,你愿意收听他。这就是用户与用户之间的关系理解。还有用户与信息之间的理解,就是你对哪一类型的微博感兴趣,你对哪一类型的信息感兴趣,如果牵扯到商业化,你对哪一类的广告或者商品感兴趣。其实就是用户与信息之间的关系,他无非是做这件事。
大数据说的那么悬,其实主要是做三件事:对用户的理解、对信息的理解、对关系的理解。如果我们在这三件事之间还要提一件事的话,一个叫趋势。他也是关系的一种变种,只是关系稍微远一点,情感之间的分析,还有我们政府部门做的舆情监控。他可以监控大规模的数据,可以分析出人的动向。在美国的好莱坞,这两年也是基于FACEBOOK和TIWTTER的数据来预测即将上映的电影的票房。他也是一个趋势的分析,只是我们把这个趋势提前来。核心就是这三件事。
为什么要讲这些呢?
因为这些在我们新版里面都有很充分的体现。我们的新版要做什么。新版核心是要做提高阅读效率这件事。微博本身的形态就是很碎片化的。这个碎片化还不是因为大家上网的时间碎片化,我指的是信息的碎片化。微博就是那一百来个字,你收听、关注了哪些人都是很随机的,你看信息是非常零碎的。你看到一件事情的时候基本上不可能在微博上看到它的全貌。一个人说了几句,金三胖真过分,又抓我们渔民,你能知道这件事是什么吗?你要想知道这件事是什么。高端的人还可以搜一搜,倒腾这件事。对于一些小白来说,他根本不知道这件事是什么。新闻门户这个时候就很重要。新闻门户我点来点去,他大概就能看出这件事是什么。这和产品本身有关。但是也和这两年随着大家上微博越来越多,信息爆炸、信息过载有关。现在我收听了一千多号人,如果十分钟不看的话,就一定是一百条以上没有看。有很多我关注的信息也可以遗漏在这一百条,或者几百条信息里面。几百条里面有大量的营销、笑话、段子,我很感兴趣的我的前女友的动态就被这些段子埋没进去了。但是我的前女友又不太活跃。她甚至一两个星期才发一条微博,基本上很难看得到。这就是我们微博产品本身的特点。所以我们通过几个功能来解决信息获取的效率。第一个是从内容的角度对微博进行分类,我们的频道是通过内容的角度把内容归类,把优质内容提取出来。微热点也是从内容的角度把内容进行分类。庐山地震,别人只提了几个字,在你的顶栏里面就会出现庐山地震的内容,这是对内容进行分类。第二,从人的角度把信息分类,我们新版会推出一个东西,叫微圈,他是智能的分组。尤其是我们这些比较活跃的人,你可能收听了八百、五百人,你有没有耐心一个一个的分一个组?这是很难的,大部分人不会做这件事。所以我们是智能的分组,你什么都不用管,直接帮你分好。我的前女友我可以建一个前女友群,我要看她的消息,我就点到那个群里,可以分类的看这些人的动态。
举一个对用户理解的能力,大家都知道李开复是这样的,大家都知道他在微博里面有这么多我们可以分析的技术的点。这些点牵不牵扯到隐私?你去他的网页上看一看也可以得到这些结论。只是这么多的点,你能不能凭应用分析出来。
最后再总结一下大数据是干吗的。
这两年再怎么提大数据,它和历史上出现的许多技术一样,它只是一种能力和技术而已,只是一种工具而已。只是这两年由于数据规模的扩大,以及基于大数据诞生了很多新的产品和商业化的形态。所以我们才这么火的来提它。其实它还只不过是一种工具而已。我们的总结是基于大数据解决用户的需求,提供一种最优质的服务才是最终目标,大数据只是工具而已,并没有那么悬。
在目前为止,基于大数据的应用大都还局限在商业化为主。更多的还是提怎么做精准广告,怎么做商品推荐,怎么做这些这些。真正敢把它做产品化的还比较少。因为所有的大数据这些智能的东西都有一个特点,不是百分之百的准确率。不像你要做一个什么样的产品功能,按纽放哪就放哪,不会有错误。大数据的特点是它只能做到一定的准确率,你敢不敢产品化,取决于你对这个能力的准确度提高到什么程度。就以我们这次微圈举例,或者以微热点举例,如果你把一个用户智能分组只能准确到50%、60%。结果是适得其反的。你把热点的聚类聚在一起,并且和你主页上的信息匹配的时候,你的准确率敢不敢做到80%、90%以上?这就是为什么我开始跟大家讲大数据。其实就是第一次我们也是大规模的把大数据这种技术的能力和腾讯对数据独有的数据规模的优势应用到产品中去。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14