京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据需要建立规则和标准_数据分析师培训
作为在上世纪90年代就提出可穿戴设备概念的潘特兰教授,在大数据方面也享有卓著声誉,但他对大数据的看法,站在互联网业者的角度来看略显保守。因为他最为人称道的几个研究方向并非大数据的应用,而是个人数据采集规则,大数据安全和隐私等。不过这些在我们眼里看上去远比不上大数据发展优先的主题,并不妨碍他成为大数据领域首屈一指的专家。
潘特兰的学生中牛人辈出,有发明谷歌眼镜的,也有发明面部识别技术的。潘特兰本人则较为热衷于为大数据采集和应用制定规则,设立标准,甚至还在世界经济论坛这种重大场合为政治及经济人物提供各种与此有关的建议,可以看得出,大数据的规则和秩序是他更为看重的主题。这在当前整个社会对大数据的狂热情绪下,似乎显得有些违和,但谁也不敢肯定,几年后这未必就不是一个至高议题。
与那些喜欢做美食但自己不吃的厨师一样,潘特兰作为可穿戴设备教父,自己是不戴可穿戴设备的。虽然没有明说,但他对产自IT界的各种可穿戴设备所表现出的鄙夷,还是能够令人清晰感知到的。吃饭的时候他曾表达过这样的意思:不要相信那些现有的可穿戴设备,未来的大数据与之没有半点关系。而在现场视频中对各种市面上常见的可穿戴设备进行测试时,结果也确实与其态度有所吻合,所有加入测试的设备无一幸免地暴露出数据上的偏差,外观不错的小米手环误差率竟然达到了15%。
潘特兰将这些设备称之为简单、劣质,而他自己认可的可穿戴设备标准,则完全以用户体验为导向。他认为,那些设备光是能将人的步速和心跳频率测出来,本质上是没什么用的,用户需要让这些设备告诉自己,今天他的身体到底好不好,有没有什么欠缺,该如何进行调理等等。他所说的这种我们从未见过的场景,我想就是可穿戴设备和大数据紧密结合的产物了,很遗憾这种产品目前还没问世。
大数据的四个阶段,采集、存储、分析、应用,目前的发展水平似乎仍停留在采集阶段,但对此已有分歧了。大公司喜欢把合理诉求和自我诉求巧妙混合在一起,然后拿出来说事儿,他们对数据的渴望是贪婪的,恨不得能采集的都采集到,然后实现数据互通,最终实现产品化和商业化。
但要注意到的问题是,数据采集和使用仍然是应该有边界的。就拿BAT来说,腾讯把聊天记录作为大数据样本,阿里把交易信息作为大数据样本,百度把越权抓取的非公开信息作为大数据样本,从法理上来说都是存在一定风险的。个人网上信息的所有权在过去并不是个问题,未来一定会是个问题。
潘特兰为此提出的解决方案,则更显人性化,基于用户角度去考虑问题,较少考虑商业因素。他认为,每个人都有权使用自己的数据,选择进入或者退出网络,或者选择是否分享给别人。只有用户对数据应用和安全放心了,不觉得会有什么问题了,才会有真正的大数据。
其实很容易理解这些话的含义,大公司对数据的撷取是主动的,而用户对数据的被收集则是被动的,这对于一个未来的庞大产业而言,不可能不是一个问题。英国微电影“黑镜“中有个场景,在一个人出车祸死后,系统自动搜集此人在各种社交网络上的发言和分享,类似于人肉搜索,然后基于这些数据模仿出其语言,再通过逼真的模拟语音,实现与未亡人进行跨阴阳两界对话的效果。这个场景相当令人震撼,也相当令人担忧。
如果大数据应用到这个地步,必然会出现不良后果,这会反过头来损害大数据产业的发展。潘特兰说的那些话意思在于,你让用户自己去选择个人数据的应用,赋予其主动权,这才是对大数据发展更有好处的事情。
例如,用户如果认为自己的身体数据并没什么隐私问题,你给他退出的权利,他会主动给你上传更多的优质数据,而这些数据是公司们想通过技术手段收集,也收集不来的。可穿戴设备与这种兼顾了用户权利的数据结合,才会达到他心目中的理想效果。
其实我一直都有个看法,通过大数据预测未来是一件不靠谱的事情,不管你的应用技术如何发达,IT设备如何高效,这本质上是一种违背能量守恒定律的臆想,如永动机一样永远不能实现。不过,在预测未来之外,大数据可做的事情其实要比我们想象的更多,如石油带动能源革命一样,会对未来的人类生活产生重大影响。
这个事情需要有序推进还是野蛮生长,着实是值得深思的问题。由于数据维度的不同,文化习惯的差异,大数据之间未来发展到应用阶段时,会呈现出严重的不同步现象,出现失真,解决这个问题的关键,在于规则和标准。而为大数据建立规则和标准,似乎正是潘特兰教授真正心向往之的一件事,因为他知道,这可能会影响到一个革命性产业在未来的走向。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07