京公网安备 11010802034615号
经营许可证编号:京B2-20210330
关于机器学习有这十大误区,比如以为它不久后将变得超级智慧
机器学习过去往往发生在幕后:亚马逊通过挖掘你的点击和购买记录来给你推荐新物品;谷歌通过挖掘你的搜索来投放广告;脸书通过挖掘你的社交网络来选择给你展示不同的新鲜事。
然而机器学习现在已然登上了头版头条,成为了被热烈讨论的话题!机器学习算法可以驾驶车辆,可以翻译演讲,赢得危险边缘游戏(哥伦比亚广播公司益智问答游戏节目)!
我们不由自主会问:“他们到底能做什么不能做到什么?他们会是隐私、工作甚至是人类消失的开始呢?”大家对机器学习的关注固然很好,因为机器学习将会是塑造未来的主要推动力,但是这其中又有太多关于机器学习的错误观念,我接下去要做的第一步就是纠正这些错误的观念。让我们快速浏览一下那些错误观念。
机器学习只是在总结数据
事实上,机器学习的主要目的是预测未知。知道你过去看了什么电影只是一种推测你之后想看什么电影的方式;你的信用记录预示了你会否按时付账单。而对于机器人科学家,学习算法提出假设,改进假设,而只有假设提出的预测成真时才会相信这些假设。学习算法并不比科学家聪明,但却有比科学家百万倍快速的计算能力。
学习算法只是发现了事件之间的关联
这是你对媒体口中机器学习的第一印象。一个非常著名的例子就是,谷歌搜索中关于“流感”搜索的增加是流感流行的迹象。当然这没有错,但是大多学习算法可以发现更丰富的信息,例如如果痣有着奇怪的形状和颜色,并且在逐渐变大,那么这可能会是皮肤癌。
机器学习只能发现相关性,而无法发现因果关系
实际上,最流行的机器学习算法之一就是由尝试不同的行为之后观察行为的结果(本质上是发现因果关系)所组成的。比方说,电商网站可以尝试不同呈现商品的方式,然后选择其中能带来最高购买量的方式。你可能不经意间已经参与了成千次这种实验。因果关系甚至可以在一些无法进行实验只能通过计算机处理之前记录的数据的情形下被发现。
机器学习无法预测未见过的事件,也称作“黑天鹅”效应
如果某些事之前从未发生过,那么预测它发生的概率必然为零,不然呢?相反,机器学习很擅长高精度地预测稀有事件。如果A是B发生的原因,B又是C发生的原因,那么A可能导致C发生,即便我们从未见过其发生过。每一天,垃圾邮件过滤器可以标记出刚刚捏造而成的垃圾邮件(之前未出现过)。像2008年发生的房地产危机实际上是被广泛预测到了的,只不过不是那时大多数银行所使用的是有缺陷的模型而已。
你有越多的数据,你越可能得到错误的模式
试想,国家安全局查看了越多的电话记录,越可能把一个无辜的人标记为恐怖分子,因为他的通话记录正好匹配了恐怖分子检测的机制。对同一个体挖掘越多的属性是会增加误判的可能性,然而机器学习专家们是很善于把这种可能性降到最低的。另一方面,挖掘不同个体的同种属性可以降低误判风险,因为从中学习的规则有更多的依据。而且有些学习算法可以在不同个体之间找到某些模式,从而使检测机制更加稳定。也许某人拍摄纽约市政府的视频并不可疑,同时另外一个大量购买硝酸铵的人也不可疑;然而如果这两个人之间有电话联系,也许FBI就应该调查一下以保证他们之间不是在密谋爆炸袭击了。
机器学习无视现存的知识
许多被机器学习渗透的领域里的专家质疑像机器学习这样不需掌握任何领域知识的方法。真正的知识是一个长期推理与实验的过程中累积下的,你无法靠在一个数据库里跑一个原型算法而学到。但不是所有的学习算法都不使用领域知识;其中一些就会用数据去精炼已有的繁杂知识,使其变得十分精巧,进而呈现为计算机所能理解的形式。
计算机习得的模型人类无法理解
这自然会是一个引起人们关心的原因。如果一个学习算法是黑箱模型,那么我们怎么能相信它给出的推荐呢?某些模型却是非常难理解,比如给机器学习带来最大成功的深度神经网络(从youtube的视频里识别猫咪)。但其他大多模型都完全可以被理解,比如我们之前提到的诊断皮肤癌用到的方法。
以上所有的误解都是负向的,它们认为机器学习的能力比实际上更有限。以下的则是过于正向的错误观念:
越简单的模型越准确
这个观念有时来自“奥卡姆剃刀”,但只说了我们应该倾向于更简单的模型却没有给出原因。简单模型更可取是因为他们更易于解释和推理。但是有时与数据相容的简单假设比复杂模型更不准确。一些强有力的学习算法输出模型看起来毫无理由的复杂,甚至还会继续给复杂模型添加组件即便他们已经完美拟合了数据,但这也是它们比简单模型更准确的原因。
机器学习发现的模式可以直接被采纳
如果一个学习算法输出了一条诊断皮肤癌的规则,并且极其准确(任何符合这个条件的痣都是皮肤癌),这也不意味着你应该相信它。对于数据微小的改动都会导致算法输出同等精确却非常不同的规则。只有那些对于数据中随机扰动稳定的规则可以被相信,而不仅仅是作为预测的方式。
机器学习不久后会变成超级智慧
从每天人工智能发展的新闻来看,非常容易有一种感觉,计算机已经接近于像我们一样可以看,说话,推理;不久后就会把我们抛弃在尘土里了。我们在人工智能的第一个五十年走了条长路,机器学习是其近来成功的主要原因,然而我们还有很长的路要走。计算机可以非常好的完成特定的任务,却依然没有通用智能,也还没有人知道怎么去教它们。
好了,到这你已经知道机器学习有时比我们想象的更强力,有时却不那么好。如何使我们更好运用机器学习也取决于我们!我们要对它们有更准确的理解!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Excel数据分析中,数据透视表是汇总、整理海量数据的高效工具,而公式则是实现数据二次计算、逻辑判断的核心功能。实际操作中 ...
2026-04-30Excel透视图是数据分析中不可或缺的工具,它能将透视表中的数据快速可视化,帮助我们直观捕捉数据规律、呈现分析结果。但在实际 ...
2026-04-30 很多数据分析师能熟练地计算指标、搭建标签体系,但当被问到“画像到底在解决什么问题”“画像和标签是什么关系”“画像如何 ...
2026-04-30在中介效应分析中,人口统计学变量(如年龄、性别、学历、收入、职业等)是常见的控制变量或调节变量,其处理方式直接影响分析结 ...
2026-04-29在SQL数据库实操中,日期数据的存储与显示是高频需求,而“数字日期”(如20240520、20241231、45321)是很多开发者、数据分析师 ...
2026-04-29 很多分析师在设计标签时思路清晰,但真到落地环节却面临“数据在手,不知如何转化为可用标签”的困境:或因加工方式选择不当 ...
2026-04-29在手游行业竞争日趋白热化的当下,“流量为王”早已升级为“留存为王”,而付费用户留存率更是衡量一款手游盈利能力、运营质量的 ...
2026-04-28在日常MySQL数据库运维与开发中,经常会遇到“同一台服务器上,两个不同数据库(以下简称“源库”“目标库”)的表数据需要保持 ...
2026-04-28 很多分析师每天和数据打交道,但当被问到“标签是什么”“标签和指标有什么区别”“标签体系如何设计”时,却常常答不上来。 ...
2026-04-28箱线图(Box Plot)作为一种经典的数据可视化工具,广泛应用于统计学、数据分析、科研实证等领域,核心价值在于直观呈现数据的集 ...
2026-04-27实证分析是社会科学、自然科学、经济管理等领域开展研究的核心范式,其核心逻辑是通过对多维度数据的收集、分析与解读,揭示变量 ...
2026-04-27 很多数据分析师精通Excel函数和数据透视表,但当被问到“数据从哪里来”“表和视图有什么区别”“数据库管理系统和SQL是什么 ...
2026-04-27在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22