京公网安备 11010802034615号
经营许可证编号:京B2-20210330
SAS信用评分之番外篇异常值的识别
今天想分享给大家的是我早期建模的时候一个识别异常值的办法,也许你在“信用风险评分卡研究”看过,但是代码只能识别一个变量,我将这个代码作了改良,但是我在这里必须声明一点,就是假设你身处的公司数据并不多的话,我不建议你使用这个代码,因为我是简单粗暴的将异常值直接剔除了。
就因为我的数据不多,所以我之前在做建模的时候使用的是先等量分组再最优分段的方式来使变量不用识别异常值,说道这里,我又需要跟大家提醒一下就是关于最优分段的代码,说有过拟合的现象。这里跟大家解释一下就是关于最优分段过拟合,因为最优分段的基础是建立在等量分组的基础上,所以重点就是在等量分组上,假设你领导能接受的最小一组的总数据量的1/20,那么你就在等量分组中分20组,保证在后面的产出至少一组都是1/20以上,以此类推。
进入正题,我来讲这个识别异常值的代码,首先,这个代码只针对连续变量,而且是正态分布或者是接近正态分布的变量,若是双峰或者左偏单峰,或者右偏单峰都不适用这个代码的识别。其实这个代码有很多局限性,所以我写出来之后也不是经常的用到,所以叫做番外篇。
接下来的这个代码分为两部分,第一就是针对缺失值大于30%的变量在业务上可以解释的通的,那这个变量做异常值处理的时候就会去除缺失值做异常值处理。对于缺失值小于30%,就让其变量的缺失值跟其他值一起做异常值处理。第二就是针对判定为异常值观测不会就直接删掉,而是先输出该观测,等到全部的变量做完了异常值检查之后,再判断这个观测出现了几次的异常。这时候你定一个伐值,假设是5次就删掉,那就是只要一个观测在这批变量中出现过5次判断为异常的那就会删掉。基本思路就是这样子啦。那就上代码吧。
/*使用标准差挑出异常数,每个变量单独挑出在三倍标准差的异常值,这里是在5各变量中都显示异常的观测则剔除*/
*%Extremes(DSin, VarX, IDVar, NSigmas, DSout);
*DSin 填入原数据集;
*VarX 要检查异常的变量;
*IDVar 数据集的主键,用于标识是那条观测;
*NSigmas 在几倍标准差内属于异常值,在后续的执行代码中,我写的是3;
*DSout输出的数据集;
%macro Extremes(DSin, VarX, IDVar, NSigmas, DSout);
proc sort data=&DSin. out=temp(keep= &VarX. &IDVar.);by &IDVar;
run;
proc univariate data=temp noprint;
var &VarX;
output out=temp_u STD=VSTD Mean=VMean;
run;
data _null_;
set temp_u;
call symput('STD', VSTD);
call symput('Mean', VMean);
run;
%let ULimit=%sysevalf(&Mean + &NSigmas * &STD);
%let LLimit=%sysevalf(&Mean - &NSigmas * &STD);
data &DSout;
set temp;
if &VarX < &Llimit or &VarX > &ULimit;
run;
proc datasets library=work nodetails nolist ;
delete temp temp_u;
quit;
%mend;
%macro Extremes1(DSin, VarX, IDVar, NSigmas, DSout);
proc sort data=&DSin. out=temp(keep= &VarX. &IDVar.);by &IDVar;
run;
proc univariate data=temp noprint;
var &VarX;
output out=temp_u STD=VSTD Mean=VMean;
run;
data _null_;
set temp_u;
call symput('STD', VSTD);
call symput('Mean', VMean);
run;
%let ULimit=%sysevalf(&Mean + &NSigmas * &STD);
%let LLimit=%sysevalf(&Mean - &NSigmas * &STD);
data &DSout;
set temp(where=(&VarX.^=.));
if &VarX < &Llimit or &VarX > &ULimit;
run;
proc datasets library=work nodetails nolist ;
delete temp temp_u;
quit;
%mend;
/*这个宏是产生一个变量列表。这的宏在这里的过程是,因为字符变量前期我已经定义完全,没有异常值,所以只检查在
原数据集中的数值变量是否有异常值*/
*var_namelist(data=,coltype=,tarvar=);
*data 填入原始数据集;
*coltype 变量的类型,数值是“num”,字符是“char”;
*tarvar 填入你不要做异常值检验的变量,这里只能填一个,理论上填的是主键;
*dsor 输出的数据集;
%macro var_namelist(data=,coltype=,tarvar=,dsor=);
%let lib=%upcase(%scan(&data.,1,'.'));
%let dname=%upcase(%scan(&data.,2,'.'));
%global var_list var_num;
proc sql ;
create table &dsor. as
select name
from sashelp.VCOLUMN
where left(libname)="&lib." and left(memname)="&dname." and type="&coltype." and lowcase(name)^=lowcase("&tarvar.");
quit;
%mend;
/*这个宏是上面两个宏的总宏,之前的两个宏是服务于这个宏。这个宏就是最后输出异常值的汇总的appl_id的数据集*/
*a 填入数据集的名字即可;
%macro ivar(data,tar_var,id);
proc datasets lib=work;
delete kk;
run;
%var_namelist(data=&data.,coltype=num,tarvar="&tar_var.",dsor=score_total_list_1)
data _null_;
set score_total_list_1;
call symput (compress("var"||left(_n_)),compress(name));
call symput(compress("n"),compress(_n_));
run;
%do i= 2 %to &n.;
proc sql;
select count(case when &&Var&i=. then 1 else 0 end)/count(*) into:num&i.
from &data.;
quit;
%if &&num&i.<0.3 %then %do;
%Extremes(DSin=&data., VarX=&&Var&i., IDVar=appl_id, NSigmas=4, DSout=aa_&i.);
%end;
%else %do;
%Extremes1(DSin=&data., VarX=&&Var&i., IDVar=appl_id, NSigmas=4, DSout=aa_&i.);
%end;
proc append base=kk data=aa_&i.(keep=&id.);
run;
proc datasets lib=work;
delete aa_&i.;
run;
%end;
%mend;
ivar(data,tar_var,id);
data:输入你的数据集。
Tar_var:输入你的因变量。
Id:输入你的主键。
输出的数据集是主键,对其计数就知道他在多少个变量里面表现为异常值,再根据自己判断的伐值进行删除。
我个人觉得这个代码的对于逻辑回归模型的可用性不是太强,因为逻辑回归中对于变量并没与太多的要求,若是你建模用的模型是线性回归估计可能对你有用。那么这次的分享就到这里吧。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27