京公网安备 11010802034615号
经营许可证编号:京B2-20210330
机器学习和深度学习现在很火,你会发现突然间很多人都在谈论它们。如下图所示,机器学习和深度学习的趋势对比(来自Google trend,纵轴表示搜索热度):
本文将会以简单易懂的语言及示例为大家详细解释深度学习和机器学习的区别,并介绍相关用途。
Tom Mitchell 关于机器学习的定义被广泛引用,如下所示:
对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而不断自我完善,那么我们称这个计算机程序在从经验E学习。
“A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P if its performance at tasks in T, as measured by P, improves with experience E ”
上面的抽象定义可能使你感到困惑,相信下面几个简单的示例会让你恍然大悟。
【例1 根据身高预测体重】
假设你要创建一个根据人的身高预测体重的系统。第一步是收集数据,收集完之后画出数据分布图如下所示。图中的每个点都代表一条数据,横坐标表示身高,纵坐标表示体重。
我们可以画一条简单的直线来根据身高预测体重,比如:
Weight (in kg) = Height (in cm) – 100
如果这条直线预测身高很准确,那怎样来衡量它的性能呢?比如以预测值和真实值之间的差值来衡量预测模型的性能。当然,源数据越多,模型效果就越好。如果效果不好,那么可以使用其他方法来提升模型性能,如增加变量(如性别)或者改变预测直线。
【例2 风暴预测系统】
假定要构建一个风暴预测系统,你手头上有过去发生的风暴数据以及这些风暴发生前三个月的天气数据。那么怎样构建一个风暴预测系统呢?
首先要做的是清洗数据并找到数据中的隐藏模式,比如导致风暴产生的条件。我们可以对一些条件建模,比如温度是否大于40摄氏度,湿度是否介于80到100之间,然后将这些特征输入模型。
你要做的就是充分利用历史数据,然后预测是否会产生风暴。在这个例子中,评价的指标是正确预测风暴发生的次数。我们可以重复预测过程多次,然后将性能结果返回系统。
回到最初机器学习的定义,我们将风暴预测系统定义如下:任务T是找到造成风暴的大气条件,性能P是在模型参数学习好之后,正确预测的次数,经验E是系统的迭代过程。
深度学习其实很早之前就出现了,随着近几年的炒作,又逐渐火起来了。
深度学习是一种特殊的机器学习,它将现实世界表示为嵌套的层次概念体系(由较简单概念间的联系定义复杂概念,从一般抽象概括到高级抽象表示),从而获得强大的性能与灵活性。
Deep learning is a particular kind of machine learning that achieves great power and flexibility by learning to represent the world as nested hierarchy of concepts, with each concept defined in relation to simpler concepts, and more abstract representations computed in terms of less abstract ones.
【例1 图形检测】
假设我们要将矩形和其他图形区别开。人眼首先是检测这个图形是否有4条边(简单概念)。如果有4条边,在检测它们是否相连,闭合且垂直,以及是否相等(嵌套层次概念)。事实上,我们将一个复杂的任务(矩形识别)分解成一些简单低抽象层次的任务。深度学习本质上是在更大的范围内做这件事。
【例2 猫还是狗】
这个案例是构建一个能够识别图片中动物是猫或者狗的系统。
如果使用机器学习解决这个问题,首先要定义一些特征,比如该动物是否有胡须、耳朵;如果有耳朵,那么耳朵是否是尖的。简单地说,我们要定义面部特征,然后让系统识别出在动物分类中哪些是重要特征。而深度学习会一次性完成这些任务,深度学习会自动找到对分类任务重要的特征,而机器学习不得不人工指定。
深入学习工作流程如下:
1. 首先在图片中找到和猫或者狗最相关的边界;
2. 然后找到形状和边界的组合,如是否能找到胡须和耳朵;
3. 在复杂概念的连续分层识别后,就能够确定哪些特征对识别猫狗起重要作用。
数据依赖
深度学习和传统机器学习最重要的区别是它的性能随着数据量的增加而增强。如果数据很少,深度学习算法性能并不好,这是因为深度学习算法需要大量数据才能很好理解其中蕴含的模式。这种情况下,使用人工指定规则的传统机器学习占据上风。如下图所示:
硬件支持
深度学习算法严重依赖于高端机,而传统机器学习在低端机上就可以运行。因为深度学习需要进行大量矩阵乘法操作,而GPU可以有效优化这些操作,所以GPU成为其中必不可少的一部分。
特征工程
特征工程将领域知识输入特征提取器,降低数据复杂度,使数据中的模式对学习算法更加明显,得到更优秀的结果。从时间和专业性方面讲,这个过程开销很高。机器学习中,大部分使用的特征都是由专家指定或根据先验知识确定每个数据域和数据类型。比如,特征可以是像素值,形状,纹理,位置,方向。大多数机器学习方法的性能依赖于识别和抽取这些特征的准确度。
深度学习算法试图从数据中学习高层特征,这是深度学习与众不同的一部分,同时也是超越传统机器学习的重要一步。深度学习将每个问题归结为开发新特征提取器,如卷积神经网络在底层学习如边和直线种种低层特征,然后是面部部分特征,最后是人脸的高层特征。
问题解决方案
当使用传统机器学习方法解决问题时,经常采取化整为零,分别解决,再合并结果求解的策略。而深度学习主张end-to-end模型,输入训练数据,直接输出最终结果,让网络自己学习如何提取关键特征。
比如说你要进行目标检测,需要识别出目标的类别并指出在图中的位置。
典型机器学习方法将这个问题分为两步:目标检测与目标识别。首先,使用边框检测技术,如grabcut,扫描全图找到所有可能的对象,对这些对象使用目标识别算法,如HOG/SVM,识别出相关物体。
深度学习方法按照end-to-end方式处理这个问题,比如YOLO net通过卷积神经网络,就能够实现目标的定位与识别。也就是原始图像输入到卷积神经网络中,直接输出图像中目标的位置和类别。
执行时间
通常,深度学习需要很长时间训练,因为深度学习中很多参数都需要远超正常水平的时间训练。ResNet大概需要两周时间从零开始完成训练,而机器学习只需要从几秒到几小时不等的训练时间。测试所需要的时间就完全相反,深度学习算法运行需要很少的时间。然而,和KNN(K近邻,一种机器学习算法)相比,测试时间会随着测试数据量的增加而增加。不过并非所有的机器学习算法都需要很长时间,某些也只需要很少的测试时间。
可解释性
假定使用深度学习给文章自动评分,你会发现性能会很不错,并且接近人类评分水准。但它不能解释为什么给出这样的分数。在运行过程中,你可以发现深度神经网络的哪些节点被激活,但你不知道这些神经元是对什么进行建模以及这每层在干什么,所以无法解释结果。
另一方面,机器学习算法如决策树按照规则明确解释每一步做出选择的原因,因此像决策树和线性/逻辑斯蒂回归这类算法由于可解释性良好,在工业界应用很广泛。
Wiki上面介绍了一些机器学习的应用领域:
1. 计算机视觉:如车牌号识别,人脸识别;
2. 信息检索:如搜索引擎,文本检索,图像检索;
3. 营销:自动邮件营销,目标识别;
4. 医疗诊断:癌症诊断,异常检测;
5. 自然语言处理:语义分析,照片标记;
6. 在线广告,等等。
下图总结了机器学习的应用领域,总的来说应用范围十分广泛。
谷歌是业内有名的使用机器学习/深度学习的公司,如下图所示,谷歌将深度学习应用到不同的产品。
即时测试
为了评估你是否真正理解了机器学习和深度学习的区别,这里将会有一个快速测试,可以在这里提交答案。你要做的就是分别使用机器学习和深度学习解决下面的问题,并决定哪个方法更好。
【场景1】 假设你要开发一个无人驾驶汽车系统,该系统以相机拍摄的原始数据作为输入,然后预测方向盘转动的方向及角度。
【场景2】给定一个人的信用凭证和背景信息,评估是否可以给他发放贷款。
【场景3】创建一个将俄语文本翻译为印度语的系统。
未来趋势
1. 鉴于工业界使用数据科学和机器学习呈增加的趋势,在业务中使用机器学习对那些想要生存下来的公司变得越发重要。同时,了解更多的基础知识也十分有必要。
2. 深度学习给人越来越多的惊喜,将来也会一直是这样。深度学习被证明是已有技术中最先进的最好的技术之一。
3. 深度学习和机器学习和研究还在继续,不像以前那样在学术界发展受限。目前机器学习和深度学习在工业界和学术界呈爆炸式发展。并且受到比以前更多的基金支持,很有可能成为人类发展的关键点之一。
尾声
本文将深度学习和机器学习进行了详细对比,希望能够激励大家去学到更多知识
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14