京公网安备 11010802034615号
经营许可证编号:京B2-20210330
做数据分析,首先解决这两类数据质量问题
为了能够系统化地、高效地解决出现的任何问题,我们必须学会将这些问题分而治之。毕竟,知己知彼方是解决问题的首重至要。由此,我们才会发现解决之道就在其中。而对于提高数据质量同样适用:每一个解决问题的方法都有不同的阶段与角度。
当一个数据质量改进程序在启动时,仅知道数据库中有多少错误计算或重复录入是远远不够的。不止于此,我们还需要知道不同类型的错误在收集的资源中是如何分配的。
据 Jim barker 一篇很有意思的博客所述,数据质量被分解成两种不同类型。而在本文中,我会带领大家仔细区分这些“类型”有何不同,并且如何利用这些“类型”在开发预算中确保我们的优势资源放在何处。
数据类型
被誉为“数据博士”的Jim barker,借用了一个简单的医学概念来定义数据质量问题。 在他的博客中介绍了如何将这两种“类型”组合在一起,并且成功激发了那些一直纠结于找到在数据库中拉低数据质量的幺蛾子的数据分析师们的兴趣。
I型数据质量问题我们可以使用自动化工具检测到。II型数据质量问题就非常隐秘了。大家都知道它是存在的,但它看不见摸不着,更处理不了,因为它需要放在特殊情境才能被检测到。
它们之间的区别简而言之可归纳为如下几点:
型数据质量问题首先需要“知其然”才能来检测数据的完整性、一致性、唯一性和有效性。这些属性靠数据质量软件甚至手动很好地找到。你不需要有很多的背景知识,或者数据分析经验。只要按照4个属性验证它的存在,就可以判定它错误的。例如,如果我们在性别领域插入一个3,我们就可以判定它到底是不是一个有效值。
型数据质量问题需要“知其所以然”来检测时效性、一致性和准确性属性。需要研究能力、洞察力和经验,而不是简简单单就可以找得出来的。这些数据集经常从表面上看起来没有问题。但幺蛾子往往存在于细节中,需要时间去发现。Jim举的例子就是一份退休人员的雇佣记录。如果我们不知道他们早已退休的话,是看不出来这个数据是错的。
所以,解决这些数据质量问题的关键就是需要一个复杂的、战略化的方法,而非孤立的、片面的来看问题。一旦数据质量不好,我们就需要寻求自动化与人工的方式才能解决这个问题了,真可谓是“屋漏偏逢连夜雨”啊。
成本调整
所以,我们如何解决I型和II型数据质量问题呢?处理它们所花费的费用是可比的,还是完全不同的?
要记住重要的一点是,I型数据的验证问题可以在逻辑上定义,这意味着我们可以靠编写软件来查找并显示它。软件自动修复的速度快、成本低,甚至配合手动审查就可以完成。考虑到I型数据质量问题实际上是作为表格内字段型的验证,一旦解决了表格字段的问题,I型数据质量问题实际上也就解决了。
根据我们以往的经验:I型数据基本涵盖了80%的数据质量问题,但消耗了我们20%的经费成本。
第二类数据问题往往需要多方的输入,以便发现、标记和根除。虽然我们客户关系管理系统中的每个人都有购买日期,但购买日期可能不正确,或者与发票或发货清单不符。只有专家才能通过仔细核查其内容来解决问题并手动改进客户关系管理系统。
通常情况下,企业很难做到资源的合理分配,原因有二,特别是企业处于快速增长阶段;或者处于人才流失的时候。你别看这些II类问题较少,可能仅占数据问题剩余的20%,但它们很有可能需要消耗超过80%的成本预算。所以,如果当企业处于人才大量流失,却又对此无能为力的时候。你会发现第二类数据问题更难处理,因为人工解决的途径已不复存在了。
提高精确程度
为了提高数据的准确性,我们必须将I型和II型数据问题作为单独的,但同时存在的问题进行研究。I类型数据质量的挑战可以呈现快速获胜,但第II类问题提出了一个挑战,必须依靠人类的专业知识才可以解决。
随着时间的推移,数据库会超过使用期限。为保其时效性,这需要持续不断的努力。数据可以在数据库中进行清洗,或在使用阶段进行清理,但由于如导入/导出、损坏、手动编辑、人为导致错误等多种原因,仍然要注意I型错误的发生。第II类数据问题在这阶段自然而然地发生,因为就算数据经过验证和审查之后看起来正确,但对于现在来说仍有可能是不正确的,因为此时已非彼时,数据的使用环境改变了。
确保数据的完整
数据的完整会有助于我们观察整个事物的全貌并推动其对事物的决策。正如我们前面所说,发现I型数据质量问题是比较简单、廉价和快速的。但如果企业的工作业务还没有采用某种数据质量软件来解决I型数据质量问题的话,那现在也应该着手考虑了,因为这样才可能避免将来出现的资源浪费、损害品牌效应和来自大众的误解。
而对于第II类数据问题,关键是要理解它为什么会发生,并采取措施以防止它的发生。从日常工作中,处事的变通以及员工疏忽常导致数据的质量不佳。随着时间的推移,资源分配失当也会增加II型数据问题的增加。而改善它的费用也会成倍增加,因为你需要具备专家的眼光方能在茫茫的数据中找到它的存在。
其实,发现并解决这两类问题在当下已不是不可能的事了。会变得越来越容易。很多数据质量供应商们也在不断寻找新的方法,相信在不远的将来,得到高质量的数据会变得越来轻松,越来越简单。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15