京公网安备 11010802034615号
经营许可证编号:京B2-20210330
做数据分析,首先解决这两类数据质量问题
为了能够系统化地、高效地解决出现的任何问题,我们必须学会将这些问题分而治之。毕竟,知己知彼方是解决问题的首重至要。由此,我们才会发现解决之道就在其中。而对于提高数据质量同样适用:每一个解决问题的方法都有不同的阶段与角度。
当一个数据质量改进程序在启动时,仅知道数据库中有多少错误计算或重复录入是远远不够的。不止于此,我们还需要知道不同类型的错误在收集的资源中是如何分配的。
据 Jim barker 一篇很有意思的博客所述,数据质量被分解成两种不同类型。而在本文中,我会带领大家仔细区分这些“类型”有何不同,并且如何利用这些“类型”在开发预算中确保我们的优势资源放在何处。
数据类型
被誉为“数据博士”的Jim barker,借用了一个简单的医学概念来定义数据质量问题。 在他的博客中介绍了如何将这两种“类型”组合在一起,并且成功激发了那些一直纠结于找到在数据库中拉低数据质量的幺蛾子的数据分析师们的兴趣。
I型数据质量问题我们可以使用自动化工具检测到。II型数据质量问题就非常隐秘了。大家都知道它是存在的,但它看不见摸不着,更处理不了,因为它需要放在特殊情境才能被检测到。
它们之间的区别简而言之可归纳为如下几点:
型数据质量问题首先需要“知其然”才能来检测数据的完整性、一致性、唯一性和有效性。这些属性靠数据质量软件甚至手动很好地找到。你不需要有很多的背景知识,或者数据分析经验。只要按照4个属性验证它的存在,就可以判定它错误的。例如,如果我们在性别领域插入一个3,我们就可以判定它到底是不是一个有效值。
型数据质量问题需要“知其所以然”来检测时效性、一致性和准确性属性。需要研究能力、洞察力和经验,而不是简简单单就可以找得出来的。这些数据集经常从表面上看起来没有问题。但幺蛾子往往存在于细节中,需要时间去发现。Jim举的例子就是一份退休人员的雇佣记录。如果我们不知道他们早已退休的话,是看不出来这个数据是错的。
所以,解决这些数据质量问题的关键就是需要一个复杂的、战略化的方法,而非孤立的、片面的来看问题。一旦数据质量不好,我们就需要寻求自动化与人工的方式才能解决这个问题了,真可谓是“屋漏偏逢连夜雨”啊。
成本调整
所以,我们如何解决I型和II型数据质量问题呢?处理它们所花费的费用是可比的,还是完全不同的?
要记住重要的一点是,I型数据的验证问题可以在逻辑上定义,这意味着我们可以靠编写软件来查找并显示它。软件自动修复的速度快、成本低,甚至配合手动审查就可以完成。考虑到I型数据质量问题实际上是作为表格内字段型的验证,一旦解决了表格字段的问题,I型数据质量问题实际上也就解决了。
根据我们以往的经验:I型数据基本涵盖了80%的数据质量问题,但消耗了我们20%的经费成本。
第二类数据问题往往需要多方的输入,以便发现、标记和根除。虽然我们客户关系管理系统中的每个人都有购买日期,但购买日期可能不正确,或者与发票或发货清单不符。只有专家才能通过仔细核查其内容来解决问题并手动改进客户关系管理系统。
通常情况下,企业很难做到资源的合理分配,原因有二,特别是企业处于快速增长阶段;或者处于人才流失的时候。你别看这些II类问题较少,可能仅占数据问题剩余的20%,但它们很有可能需要消耗超过80%的成本预算。所以,如果当企业处于人才大量流失,却又对此无能为力的时候。你会发现第二类数据问题更难处理,因为人工解决的途径已不复存在了。
提高精确程度
为了提高数据的准确性,我们必须将I型和II型数据问题作为单独的,但同时存在的问题进行研究。I类型数据质量的挑战可以呈现快速获胜,但第II类问题提出了一个挑战,必须依靠人类的专业知识才可以解决。
随着时间的推移,数据库会超过使用期限。为保其时效性,这需要持续不断的努力。数据可以在数据库中进行清洗,或在使用阶段进行清理,但由于如导入/导出、损坏、手动编辑、人为导致错误等多种原因,仍然要注意I型错误的发生。第II类数据问题在这阶段自然而然地发生,因为就算数据经过验证和审查之后看起来正确,但对于现在来说仍有可能是不正确的,因为此时已非彼时,数据的使用环境改变了。
确保数据的完整
数据的完整会有助于我们观察整个事物的全貌并推动其对事物的决策。正如我们前面所说,发现I型数据质量问题是比较简单、廉价和快速的。但如果企业的工作业务还没有采用某种数据质量软件来解决I型数据质量问题的话,那现在也应该着手考虑了,因为这样才可能避免将来出现的资源浪费、损害品牌效应和来自大众的误解。
而对于第II类数据问题,关键是要理解它为什么会发生,并采取措施以防止它的发生。从日常工作中,处事的变通以及员工疏忽常导致数据的质量不佳。随着时间的推移,资源分配失当也会增加II型数据问题的增加。而改善它的费用也会成倍增加,因为你需要具备专家的眼光方能在茫茫的数据中找到它的存在。
其实,发现并解决这两类问题在当下已不是不可能的事了。会变得越来越容易。很多数据质量供应商们也在不断寻找新的方法,相信在不远的将来,得到高质量的数据会变得越来轻松,越来越简单。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27