CTR预测理论(二十一):数据预处理总结

CTR预测理论(⼆⼗⼀):数据预处理总结
数据预处理作为算法⼯程师的基本功,其预处理往往需要结合数据、模型、训练⽬标等多⽅⾯要求,现整合⽬前现有资料,做⼀个总结,后续再陆续添加。
1. 数据清理
数据清理(data cleaning) 的主要思想是通过填补缺失值、光滑噪声数据,平滑或删除离点,并解决数据的不⼀致性来“清理“数据。如果⽤户认为数据时脏乱的,他们不太会相信基于这些数据的挖掘结果,即输出的结果是不可靠的。
1.1 缺失值的处理胡德利
由于现实世界中,获取信息和数据的过程中,会存在各类的原因导致数据丢失和空缺。针对这些缺失值的处理⽅法,主要是基于变量的分布特性和变量的重要性(信息量和预测能⼒)采⽤不同的⽅法。主要分为以下⼏种:
删除变量:若变量的缺失率较⾼(⼤于80%),覆盖率较低,且重要性较低,可以直接将变量删除。
定值填充:⼯程中常见⽤ -9999 进⾏替代
统计量填充:若缺失率较低(⼩于 95%)且重要性较低,则根据数据分布的情况进⾏填充。对于数据符合均匀分布,⽤该变量的均值填补缺失,对于数据存在倾斜分布的情况,采⽤中位数进⾏填补。
泛裸体插值法填充:包括随机插值,多重差补法,热平台插补,拉格朗⽇插值,⽜顿插值等
模型填充:使⽤回归、贝叶斯、随机森林、决策树等模型对缺失数据进⾏预测。
哑变量填充:若变量是离散型,且不同值较少,可转换成哑变量,例如性别SEX变量,存在male,fameal,NA三个不同的值,可将该列转换成 IS_SEX_MALE, IS_SEX_*FEMALE, IS_SEX_NA。若某个变量存在⼗⼏个不同的值,可根据每个值的频数,将频数较⼩的值归为⼀类’other’,降低维度。*此做法可最⼤化保留变量的信息。
总结来看,楼主常⽤的做法是:先⽤pandas.isnull.sum()检测出变量的缺失⽐例,考虑删除或者填充;
若需要填充的变量是连续型,看下该特征分布,均匀分布采⽤平均值,分布跳动⽐较⼤采⽤中位数(因为分布变动较⼤或者有离点时,平均值容易受分布和离值影响);
若变量是离散型,通常采⽤中位数或众数或直接归为⼀类进⾏填充。
需要注意的是,当特征分布跳动厉害或者存在异常值、离点时候使⽤平均值会受离点影响,这种情况更适宜采⽤中位数或者众数;
詹金斯对于缺失值⽐例较少的特征(少于95%),其特征⼜较为重要的特征,可以采⽤进⾏模型填充,但模型预测同样有讲究,如果最终模型预测采⽤树模型,这时候进⾏模型填充缺失值时,更适合采⽤线型模型(如 LR),因为 LR 是线性模型,其预测逻辑的乘积加和⽅式对于树模型是有意义的,若都采⽤树模型,通过特征联⽴判定分类或者回归结果,其对最终的树模型带来的信息冗余⽐较⼤(因为从某种意义上讲,既然该特征值可以通过其他特征值推导出来,证明该特征的信息已经包含在特征中,这列特征的信息量本来就很⼩了);
同理,如果最终模型是线性模型(如 LR, 神经⽹络模型),则可以通过树模型进⾏缺失值填充,其填充逻辑为树模型的联⽴特征判定,对最终预测模型也是⼀种信息补充。
注意: 若对变量进⾏分箱离散化,⼀般会将缺失值单独作为⼀个箱⼦(离散变量的⼀个值)
1.2 离点处理
异常值是数据分布的常态,处于特定分布区域或范围之外的数据通常被定义为异常或噪声。异常分为两种:“伪异常”,由于特定的业务运营动作产⽣,是正常反应业务的状态,⽽不是数据本⾝的异常;“
真异常”,不是由于特定的业务运营动作产⽣,⽽是数据本⾝分布异常,即离点。主要有以下检测离点的⽅法:
简单统计分析:根据箱线图、各分位点判断是否存在异常,例如 pandas 的 describe 函数可以快速发现异常值。
原则:若数据存在正态分布,偏离均值的之  外. 通常定义  范围内的点为离点。
基于绝对离差中位数(MAD):这是⼀种稳健对抗离数据的距离值⽅法,采⽤计算各观测值与平均值的距离总和的⽅法。放⼤了离值的影响。
基于距离:通过定义对象之间的临近性度量,根据距离判断异常对象是否远离其他对象,缺点是计算复杂度较⾼,不适⽤于⼤数据集和存在不同密度区域的数据集基于密度:离点的局部密度显著低于⼤部分近邻点,适⽤于⾮均匀的数据集
基于聚类:利⽤聚类算法,丢弃远离其他簇的⼩簇。
总结来看,在数据处理阶段将离点作为影响数据质量的异常点考虑,⽽不是作为通常所说的异常检测⽬标点,因⽽楼主⼀般采⽤较为简单直观的⽅法,结合箱线图和 MAD 的统计⽅法判断变量的离点。具体的处理⼿段:根据异常点的数量和影响,考虑是否将该条记录删除,信息损失多若对数据做
了 log-scale 对数变换后消除了异常值,则此⽅法⽣效,且不损失信息平均值或中位数替代异常点,简单⾼效,信息的损失较少
在训练树模型时,树模型对离点的鲁棒性较⾼,⽆信息损失,不影响模型训练效果
1.3 噪声处理
溶液聚合
噪声是变量的随机误差和⽅差,是观测点和真实点之间的误差,即 。
2004感动中国颁奖词通常的处理办法:对数据进⾏分箱操作,等频或等宽分箱,然后⽤每个箱的平均数,中位数或者边界值(不同数据分布,处理⽅法不同)代替箱中所有的数,起到平滑数据的作⽤。
另外⼀种做法是,建⽴该变量和预测变量的回归模型,根据回归系数和预测变量,反解出⾃变量的近似值。
2. 数据规约
数据归约技术可以⽤来得到数据集的归约表⽰,它⼩得多,但仍接近地保持原数据的完整性。 这样,在归约后的数据集上挖掘将更有效,并产⽣相同(或⼏乎相同)的分析结果。⼀般有如下策略:
2.1 维度规约
⽤于数据分析的数据可能包含数以百计的属性,其中⼤部分属性与挖掘任务不相关,是冗余的。维度归约通过删除不相关的属性,来减少数据量,并保证信息的损失最⼩。
属性⼦集选择: ⽬标是出最⼩属性集,使得数据类的概率分布尽可能地接近使⽤所有属性的原分布。在压缩的属性集上挖掘还有其它的优点。它减少了出现在发现模式上的属性的数⽬,使得模式更易于理解。
逐步向前选择:该过程由空属性集开始,选择原属性集中最好的属性,并将它添加到该集合中。在其后的每⼀次迭代,将原属性集剩下的属性中的最好的属性添加到该集合中。逐步向后删除:该过程由整个属性集开始。在每⼀步,删除掉尚在属性集中的最坏属性。
向前选择和向后删除的结合:向前选择和向后删除⽅法可以结合在⼀起,每⼀步选择⼀个最好的属性,并在剩余属性中删除⼀个最坏的属性。
3σ3σP (∣x −μ∣>3σ)<=0.003obs =x +ε
怎么有效估计特征的重要性?
对当前学习任务有⽤的特征称为 相关特征,⽽没什么⽤的特征称为 ⽆关特征,从给定的特征集选择特征的过程,称为 特征选
择;
为什么要进⾏特征选择呢?有两个重要的原因,⼀个是避免 维数灾难 问题,另⼀个是,去除不相关的特征往往会降低学习任务的难度。
特征选择的常⽤⽅法包括:过滤式选择、包裹式选择、嵌⼊式选择等等。
简单来说,过滤式⽅法先对数据集进⾏特征选择,然后再训练学习器,特征选择过程与后续学习器⽆关,这相当于先⽤特征选择过程对初识特征进⾏“过滤”,然后再⽤过滤后的特征来训练模型。 ⽐如,Relief⽅法。
包裹式选择特征不考虑后续学习器不同,包裹式特征选择直接把最终将要使⽤的学习器的性能作为特征⼦集的评价准则。换⾔
之,包裹式特征选择的⽬的就是为给定学习器选择最有利于其性能,量⾝定做的特征⼦集。包裹式选择⽐过滤式特征选择更好,但是另⼀⽅⾯,计算开销却要⼤得多。⽐如LVW⽅法(Las Vegas Wrapper)。
嵌⼊式特征选择是将特征选择过程与学习器训练过程融为⼀体,两者在同⼀个优化过程中优化,即在学习器训练过程中⾃动进⾏了特征选择。⽐如,L1正则化、决策树学习等。
python scikit-learn 中的递归特征消除算法 Recursive feature elimination (RFE),就是利⽤这样的思想进⾏特征⼦集筛选的,⼀般考虑建⽴ SVM 或回归模型。
单变量重要性: 分析单变量和⽬标变量的相关性,删除预测能⼒较低的变量。
这种⽅法不同于属性⼦集选择,通常从统计学和信息的⾓度去分析。
pearson相关系数和卡⽅检验,分析⽬标变量和单变量的相关性。
回归系数:训练线性回归或逻辑回归,提取每个变量的表决系数,进⾏重要性排序。
树模型的Gini指数:训练决策树模型,提取每个变量的重要度,即 Gini 指数进⾏排序。
Lasso正则化:训练回归模型时,加⼊ L1 正则化参数,将特征向量稀疏化。
IV指标:风控模型中,通常求解每个变量的 IV 值,来定义变量的重要度,⼀般将阀值设定在0.02以上。
以上提到的⽅法,没有讲解具体的理论知识和实现⽅法,需要同学们⾃⼰去熟悉掌握。
楼主通常的做法是根据业务需求来定,如果基于业务的⽤户或商品特征,需要较多的解释性,考虑采
⽤统计上的⼀些⽅法,如变量的分布曲线,直⽅图等,再计算相关性指标,最后去考虑⼀些模型⽅法。
如果建模需要,则通常采⽤模型⽅法去筛选特征,如果⽤⼀些更为复杂的 GBDT,DNN 等模型,建议不做特征选择,⽽做特征交叉。
特征规约其实就是特征选择,具体可参考个⼈博客:
2.2 维度变换
维度变换是将现有数据降低到更⼩的维度,尽量保证数据信息的完整性。楼主将介绍常⽤的⼏种有损失的维度变换⽅法,将⼤⼤地提⾼实践中建模的效率
主成分分析(PCA)和因⼦分析(FA):PCA通过空间映射的⽅式,将当前维度映射到更低的维度,使得每个变量在新空间的⽅差最⼤。FA则是到当前特征向量的公因⼦(维度更⼩),⽤公因⼦的线性组合来描述当前的特征向量。
奇异值分解(SVD):SVD的降维可解释性较低,且计算量⽐PCA⼤,⼀般⽤在稀疏矩阵上降维,例如图⽚压缩,推荐系统。
聚类:将某⼀类具有相似性的特征聚到单个变量,从⽽⼤⼤降低维度。
线性组合:将多个变量做线性回归,根据每个变量的表决系数,赋予变量权重,可将该类变量根据权重组合成⼀个变量。
流⾏学习:流⾏学习中⼀些复杂的⾮线性⽅法,可参考skearn:
3. 数据变换
数据变换包括对数据进⾏规范化,离散化,稀疏化处理,达到适⽤于挖掘的⽬的。
3.1 规范化处理
数据中不同特征的量纲可能不⼀致,数值间的差别可能很⼤,不进⾏处理可能会影响到数据分析的结果,因此,需要对数据按照⼀定⽐例进⾏缩放,使之落在⼀个特定的区域,便于进⾏综合分析。特别是基于距离的挖掘⽅法,聚类,KNN,SVM ⼀定要做规范化处理。最⼤ - 最⼩规范化:将数据映射到 [0,1] 区间,Z-Score标准化:处理后的数据均值为0,⽅差为1,
Log变换:在时间序列数据中,对于数据量级相差较⼤的变量,通常做 Log 函数的变换,
数据规范化还是有讲究的,有机会再专门对此总结⼀篇,先 mark ⼀下。
3.2 离散化处理
数据离散化是指将连续的数据进⾏分段,使其变为⼀段段离散化的区间。分段的原则有基于等距离、等频率或优化的⽅法。数据离散化的原因主要有以下⼏点:
模型需要:⽐如朴素贝叶斯等算法,都是基于离散型的数据展开的。如果要使⽤该类算法,必须将离散型的数据进⾏。有效的离散化能减⼩算法的时间和空间开销,提⾼系统对样本的分类聚类能⼒和抗噪声能⼒。离散化的特征相对于连续型特征更易理解。
可以有效的克服数据中隐藏的缺陷,使模型结果更加稳定。
等频法: 使得每个箱中的样本数量相等,例如总样本 n=100,分成 k=5 个箱,则分箱原则是保证落⼊每个箱的样本量=20。(等频法能保证数据离散化之后分布较为均匀,⽽等宽发⽆法保证)
等宽法: 使得属性的箱宽度相等,例如年龄变量(0-100之间),可分成 [0,20],[20,40],[40,60],[60,80],[80,100] 五个等宽的箱。
聚类法: 根据聚类出来的簇,每个簇中的数据为⼀个箱,簇的数量模型给定。
保安服务条例
3.3 稀疏化处理
针对离散型且标称变量,⽆法进⾏有序的 LabelEncoder 时,通常考虑将变量做 0,1 哑变量的稀疏化
处理,例如动物类型变量中含有猫,狗,猪,⽺四个不同值,将该变量转换成 is_猪,is_猫,is_狗,is_⽺ 四个哑变量。
若是变量的不同值较多,则根据频数,将出现次数较少的值统⼀归为⼀类 ‘rare’。稀疏化处理既有利于模型快速收敛,⼜能提升模型的抗噪能⼒。
参考⽂献
[1]
[2]x =new x −x max min
x −x min
x =new σ
x −x ˉ
x =new log x

本文发布于:2024-09-23 23:30:09,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/53856.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:数据   变量   特征   模型   属性   填充   分布   离群
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议