京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据自上而下提升统计和算法的效率
我们在去开发这些计算体系时,不管是软件、计算,其实都是在谈大数据分析的概念性,什么时候出现问题,我们如何达到高准确度,这只是这个问题的开始。其实作为一个计算科学家,我们经常会遇到很多的问题,有些是统计学方面的问题,但是我们没有联合统计学家一起考虑和解决这些问题。
比如说这个结果的一致性,那么还有引导程序的理论,那么就像常规的引导程序一样,都会达到一些限值,从上至下的计算,统计学的利弊权衡,什么意思呢?我们对数据计算的理解,也就是说更多的数据需要更多的计算,更多的计算能力。我们如何来做?到底是并行处理?还是子样抽取等等。你给我更多的数据,我会更高兴,因为我能够获得更高的准确度,我的错误会更小,我会以更低的成本获得更正确的答案。对于统计学家来说这是好的,但是对于做计算的来说这个不大好,因为我们将这样思考这个问题。也就是说给我一些数据,那么我们有一个新的观念,叫做控制的算法弱化,比如说我的数据量不够,我可以快速的处理它。数据太多,我的处理速度会慢下来。从计算角度来说,控制的算法能够让我更快速的处理数据,也就是算法的弱化。统计学的角度来说,能够处理更多的数据,获得更好的统计学上的答案性能提高。尽管计算的预算成本不变,但是我们能够处理更多的数据,以更快的速度,我们付出的代价就是算法的弱化。
那么,这个坐标你们不经常看,横轴指我们取样的数量,纵轴代表的是运行时间。我们看一下到底有多少的错误。我们现在就要思考固定风险。比如说在我们错误率是0.01,这个座标的区域,对于统计学家来说,如果要固定风险的话,那么必须有一定数量的样品,才能够获得这样的结果。所以,这是一个叫做典型的预计理论,大家都非常了解。同样对于在计算机科学方面,我们有所谓的负载均衡的概念,不管你有多少个样本,但是你一定要有足够的运营时间,否则的话,你是无法解决这个问题的,这是非常明确的一点。
所以,我们看一下实际的算法。有一定的运行时间,有固定的风险,在右边使用的所有算法,把算法弱化,我们就可以处理更多的数据。下面我来谈一下,这就是我们所说的问题降噪,所谓降噪就是在数据方面有一些属于制造噪音的数据。我们如何做降噪?首先,我们假设可能的答案是X这样的一个分样,然后用高准确度覆盖它,所以这是一个推理预估的过程。比如说我要找到X的值,它和Y是非常相似的,这是一个自然的预估。现在X是一个非常复杂的值,我无法做,所以我要做一个凸形的值域,我要做定性,同时可以获得最优点,我需要把它放在一个可行的规模大小之内,那么也就是任何一个固定风险都是基于X的。左边是风险,我需要它的一半,这里存在复杂性,如果想知道更多的复杂性,你们可以看一些所谓理论处理方面的文献,你们可以读一下,来做这样均衡的曲线。
我们看一下相关的内容,如果你要达到一定的风险,你必须要有一定的取样点。这是一个C,也许这个C也是计算方面很难算出来的,所以我们需要做C子集的,把这个子集进行弱化,这样我们就可以更好的计算了。我们可以做分层的层级,我们称为池域,并且根据计算的复杂度进行排序的。同时,还有统计学的复杂性,然后进行一个权衡。你们可以从数学计算出这个曲线。在这里举个例子,比如说X,刚才已经有人介绍过子集是什么意思,然后你们可以定运行时间,还有取样的复杂性,然后可以算出答案。你们看一下简单的C,复杂的C,然后你们看一下运行的时间是在下降,复杂性是一个恒值,这样你的算法更简单,可以用于大数据,既不会不会增加风险,也可以在举证方面更加简化。如果是一个信号的图值,你的运行时间由PQ值决定,你们还有一个域值的话,我们会有一个恒定的取样,大家可以同时按照“列”计算,获得我们预期的准确度,而运行时间不变,大家可以自己看这些公式。
那么,这种分析我希望大家能够记住的是和这种理论计算科学,重点就是能够把准确度放到一个水平。因为我们要去关心有关质量方面、统计学方面的风险,计算科学方面的算法能够帮助我们解决比较大的问题,就是大数据带来的大问题。同时,我们还有很多的数据理论可以适用,我们不要从统计学简单的角度来考虑,而是从计算的角度考虑。
也许你们还要去学一些统计学方面的基本理论,当然如果你们是学统计学的话,你们也要参加计算机科学的课程。对于两门都学的人,你们应该把这两个学科放到一起思考,不是统计学家只考虑统计学,计算机科学家只考虑计算机方面,我们需要解决统计学方面的风险。因此,我们可以更好的处理十万个采样点,都不会遇到问题。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12