京公网安备 11010802034615号
经营许可证编号:京B2-20210330
深度学习算法的几个难点_数据分析师培训
1、局部最优问题。
深度学习算法的目标函数,几乎全都是非凸的。而目前寻找最优解的方法,都是基于梯度下降的。稍微有点背景知识的人都知道,梯度下降方法是解决不了非凸问题的。因此,如果找到最优解,将是深度学习领域,非常值得研究的课题。
andrew在google的工作,也就是那只猫,其实训练过程是让人很费解的。为了缩短训练时间,项目组采用了分布式训练的方式。采用了1000台计算机,在不同的计算机上存储不同的训练数据,不同的训练服务器通过参数服务器进行参数的交换。{CDA数据分析师培训}训练过程开始后,所有的训练计算机从参数服务器更新当前参数,然后利用当前参数以及本机器上的训练数据,计算得到当前的梯度,通过贪婪式方法,训练到不能再训练为止,然后将参数的更新量提交给服务器,再获取新的参数进行更新。
在这个过程中,出现了不同机器在同步时间上的一个大问题。具体阐述如下:梯度下降这种方法,在计算梯度的时候,一定要知道当前参数的具体值,梯度是针对某一个具体的参数值才有意义的。但是,由于在这个系统中,计算机非常多,当计算机A从服务器上获得参数值后,完成梯度的计算得到步进量的时候,可能在它提交结果之前,计算机B已经修改了参数服务器上的参数了。也就是说,A所得到的步进量,并不是针对当前的参数值的。
论文中,作者注意到了这个问题,但是故意不去理会,结果训练结果居然不错。作者的解释是:这是一种歪打正着的现象。
为什么能够歪打正着呢?有可能是这样的:非凸问题,本来就不是梯度下降法能够解决的。如果不存在同步难题,那么随着训练的深入,结果肯定会收敛到某一个局部最优解上面去。而现在这种同步问题,恰好能够有助于跳出局部最优解。因此最终的训练结果还算不错。
作者并没有证明,这种方式,对于寻找全局最优一定是有帮助的。对于最终的结果是否一定是经验最优的,也没有证明。因此我感觉,深度学习里面,这种超高维参数的最优结果的寻优,是一个很值得深入研究的问题。它对于最终的效果也确实影响很大。
2、内存消耗巨大,计算复杂。
内存消耗巨大和计算复杂体现在两个方面。(1)训练过程。(2)检测过程。
这两个过程的计算复杂,根本原因都是庞大的参数规模造成的。比如google的这个项目,每一个位置都用到了8个模版,每一个像素,这8个模版都是不同的,因此导致最后的模版总数很大,所以训练和检测都很慢。当然,这种模版的设计法,让人不好理解,为什么不同的像素位置,模版完全不同。我还是支持以前的卷积神经网络里面的思想,不同位置的模版都是一样的,但没一个位置,模版数量就远不止8个了。这样的好处是,内存空间中,总的模板数下降了;但缺点是,计算更复杂了。
因此,如果能够找到一个好的方法,能够有效的较低计算复杂度,将是很有意义的。(比如某个邻域内如果方差极小,其实根本就没必要计算了,直接赋0.)
3、人脑机理还有很多没用上。
深度学习模拟的是人脑的其中一个很小的方面,就是:深度结构,以及稀疏性。
但事实上,人脑是相当复杂滴。关于视觉注意机制、多分辨率特性、联想、心理暗示等功能,目前根本就没有太多的模拟。所以神经解剖学对于人工智能的影响应该是蛮大的。将来要想掀起机器智能的另一个研究高潮,估计还得继续借鉴神经解剖学。
4、人为设计模版的可行性。
一直在想,为什么第一层用于检测角点和边缘这种简单特征的模版,一定需要通过无监督训练得到,如果人为实现模拟的话,能否也得到较为理想的结果呢?
从神经解剖学的成果上来看,人脑的v1区和v2区,神经细胞确实是按照规律排列的。而且都是可以人为设计的。而且,一个让人怀疑的地方就是,v1区和v2区的神经细胞,是先天发育好的,还是后天训练出来的?如果是先天的,那就是说,这种模版是可以人为设计的。
5、代价函数的设计方法。
代价函数的设计,在初学者看来,是很奇怪的。代价函数的设计,直接影响到最终的模版训练结果,可以说是深度学习中最核心的模块。
从目前已经发表的论文来看,一是考虑重构误差,二是加入某种惩罚项。惩罚项的设计有多种模式,有考虑一阶范式的,有考虑二阶范式的,各种设计可谓千奇百怪。有博文上讲到,惩罚项的作用是为了防止过拟合,但也有博文的观点是,惩罚项是为了保证稀疏性。(感觉过拟合与稀疏性是否存在某种内在联系。)
当然,代价函数的设计方法,目前还在不断探索,感觉这是一个可以发论文的点。
6、整个神经网络系统的设计。
神经网络的设计方法,包含了研究人员对人脑的理解方式。CNN、RBM,以及andrew项目组设计的变态网络,都各有各的特色。要把整个网络框架设计好,还是比较需要经验的,也是相当费脑力的。当然,这是整个领域最有研究价值的模块。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16