京公网安备 11010802034615号
经营许可证编号:京B2-20210330
机器学习模型设计五要素
数据可能没什么用,但是数据中包含的信息有用,能够减少不确定性,数据中信息量决定了算法能达到的上限。
数据环节是整个模型搭建过程中工作量最大的地方,从埋点,日志上报,清洗,存储到特征工程,用户画像,物品画像,都是些搬砖的工作也被认为最没有含金量同时也是最重要的地方。这块跟要解决的问题,所选的模型有很大关系,需要具体问题具体分析,以个性化为例讲讲特征工程中的信息损失:
我们搭模型的目的是预测未来 -“以往鉴来,未卜先知 ”,进一步要预测每个人的未来,实时预测每个人的未来。要想做好这件事情,对过去、对用户、对物品越了解越好,首先需要采集用户的行为(什么人在什么时间什么地点以什么方式对什么东西做了什么事情做到什么程度 ),然后进行归因找到影响用户点击的因素,构建用户兴趣图谱,最后在此基础上去做预测。
这个过程中,每个环节都会有信息损失,有些是因为采集不到,比如用户当时所处的环境,心情等等;有些是采集得到但是暂时没有办法用起来,比如电商领域用户直接感知到是一张图片,点或不点很大程度上取决于这张图片,深度学习火之前这部分信息很难利用起来;还有些是采集得到,也用的起来,但是因为加工手段造成的损失,比如时间窗口取多久,特征离散成几段等等。
起步阶段,先搞“量”再搞“率”应该是出效果最快的方式。
#2 f(x)
f(x)的设计主要围绕参数量和结构两个方向做创新,这两个参数决定了算法的学习能力,从数据里面挖掘信息的能力(信息利用率),类比到人身上就是“天赋”、“潜质”类的东西,衡量这个模型有多“聪明”。相应地,上面的{x,y}就是你经历了多少事情,经历越多+越聪明就能悟出越多的道理。
参数量表示模型复杂度,一般用VC维衡量。VC维越大,模型就越复杂,学习能力就越强。在数据量比较小的时候,高 VC 维的模型比低 VC 维的模型效果要差,但这只是故事的一部分;有了更多数据以后,就会发现低 VC 维模型效果再也涨不上去了,但高的 VC 维模型还在不断上升。这时候高VC维模型可以对低VC维模型说:你考90分是因为你的实力在那里,我考100分是因为卷面只有100分。
当然VC维并不是越高越好,要和问题复杂度匹配:
-- 如果模型设计的比实际简单,模型表达能力不够,产生 high bias;
-- 如果模型设计的比实际复杂,模型容易over-fit,产生 high variance;而且模型越复杂,需要的样本量越大,DL动辄上亿样本
模型结构要解决的是把参数以哪种方式结合起来,可以搞成“平面的”,“立体的”,甚至还可以加上“时间轴”。不同的模型结构有自身独特的性质,能够捕捉到数据中不同的模式,我们看看三种典型的:
LR:
只能学到线性信息,靠人工特征工程来提高非线性拟合能力
MLR:
与lr相比表达能力更强,lr不管什么用户什么物品全部共用一套参数,mlr可以做到每个分片拥有自己的参数:
-- 男生跟女生行为模式不一样,那就训练两个模型,男生一个女生一个,不共享参数
-- 服装行业跟3C行业规律不一样,那就训练两个模型,服装 一个3C一个,不共享参数
沿着这条路走到尽头可以给每个人训练一个模型,这才是真正的“个性化”!
FM:
自动做特征交叉,挖掘非线性信息
DL:
能够以任意精度逼近任意连续函数,意思就是“都在里面了,需要啥你自己找吧”,不想花心思做假设推公式的时候就找它。
#3 objective
目标函数,做事之前先定一个小目标,它决定了接下来我们往哪个方向走。总的来说,既要好又要简单;已有很多标准方法可以选,可创新的空间不大,不过自己搞一个损失函数听起来也不错,坐等大牛。
P(model|data) = P(data|model) * P(model)/P(data) —> log(d|m) + log(m)
#4 optimization
目标有了,模型设计的足够聪明了,不学习或者学习方法不对,又是一个“伤仲永”式的悲剧。 这里要解决的问题是如何更快更好的学习。抛开贝叶斯派的方法,大致分为两类:
启发式算法,仿达尔文进化论,通过适应度函数进行“物竞天择,适者生存”式优化,比较有代表性的:遗传算法GA,粒子群算法PSO,蚁群算法AA;适合解决复杂,指数规模,高维度,大空间等特征问题,如物流路经问题;问题是比较收敛慢,工业界很少用。
拉马克进化论,获得性遗传,直接修改基因(w);比较有代表性的分两类:
-- sgd variants(sgd/Nesterov/Adagrad/RMSprop/Adam/...)
-- newton variants(newton/lbfgs/...)
#5 evaluation
怎么才算一个好的模型并没有统一标准,一个模型部署上线或多或少的都会牵扯到多方利益。以个性化场景为例,就牵扯到用户,供应商/内容生产方以及产品运营三者的博弈。总的来说,一个“三好模型”要满足以下三个层面:
#0 模型调优思路
拆解之后,模型调优的思路也很清晰了:
想长胖,首先要有东西吃;其次要能吃,啥都能吃不挑食;最后消化要好
用一条公式来概括:模型效果 ∝ 数据信息量 x 算法信息利用率
不过在大数据的初级阶段,效果主要来自于第一方面吧。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析实战中,我们经常会遇到“多指标冗余”的问题——比如分析企业经营状况时,需同时关注营收、利润、负债率、周转率等十 ...
2026-02-04在数据分析场景中,基准比是衡量指标表现、评估业务成效、对比个体/群体差异的核心工具,广泛应用于绩效评估、业务监控、竞品对 ...
2026-02-04业务数据分析是企业日常运营的核心支撑,其核心价值在于将零散的业务数据转化为可落地的业务洞察,破解运营痛点、优化业务流程、 ...
2026-02-04在信贷业务中,违约率是衡量信贷资产质量、把控信用风险、制定风控策略的核心指标,其统计分布特征直接决定了风险定价的合理性、 ...
2026-02-03在数字化业务迭代中,AB测试已成为验证产品优化、策略调整、运营活动效果的核心工具。但多数业务场景中,单纯的“AB组差异对比” ...
2026-02-03企业战略决策的科学性,决定了其长远发展的格局与竞争力。战略分析方法作为一套系统化、专业化的思维工具,为企业研判行业趋势、 ...
2026-02-03在统计调查与数据分析中,抽样方法分为简单随机抽样与复杂抽样两大类。简单随机抽样因样本均匀、计算简便,是基础的抽样方式,但 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02在数据驱动企业发展的今天,“数据分析”已成为企业经营决策的核心支撑,但实践中,战略数据分析与业务数据分析两个概念常被混淆 ...
2026-02-02B+树作为数据库索引的核心数据结构,其高效的查询、插入、删除性能,离不开节点间指针的合理设计。在日常学习和数据库开发中,很 ...
2026-01-30在数据库开发中,UUID(通用唯一识别码)是生成唯一主键、唯一标识的常用方式,其标准格式包含4个短横线(如550e8400-e29b-41d4- ...
2026-01-30商业数据分析的价值落地,离不开标准化、系统化的总体流程作为支撑;而CDA(Certified Data Analyst)数据分析师,作为经过系统 ...
2026-01-30在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27