logisticregression各参数

logisticregression各参数
Logistics Regression和Logistic RegressionCV
logistic RegressionCV使⽤交叉验证来计算正则化系数C数控机床防护罩
1、penalty
默认为L2
(1)在调参时,如果是为了解决过拟合问题,⼀般⽤L2就可以了。但如果选择L2后发现还是过拟合,则需要⽤L1
鸟笼灯(2)如果模型特征特别多,希望减少⼀些特征,让模型系数稀疏化,也选择L1
penalty参数的选择会影响损失函数优化算法的选择
L2可选的算法有 ‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’sdram控制器
L1可选的算法有liblinear’(L1正则化的损失函数不是连续可导)
2、优化算法solver的选择
   solver参数决定了我们对逻辑回归损失函数的优化⽅法,有4种算法可以选择,分别是:
    a) liblinear:使⽤了开源的liblinear库实现,内部使⽤了坐标轴下降法来迭代优化损失函数。
led点阵书写显示屏    b) lbfgs:拟⽜顿法的⼀种,利⽤损失函数⼆阶导数矩阵即海森矩阵来迭代优化损失函数。
    c) newton-cg:也是⽜顿法家族的⼀种,利⽤损失函数⼆阶导数矩阵即海森矩阵来迭代优化损失函数。
    d) sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅⽤⼀部分的样本来计算梯度,适合于样本数据多的时候。
liblinear也有⾃⼰的弱点:逻辑回归有⼆元逻辑回归和多元逻辑回归。对于多元逻辑回归常见的有one-vs-rest(OvR)和many-vs-many(MvM)两种。⽽MvM⼀般⽐OvR分类相对准确⼀些。liblinear只⽀持OvR,不⽀持MvM,这样如果我们需要相对精确的多元逻辑回归时,就不能选择liblinear了。也意味着如果我们需要相对精确的多元逻辑回归不能使⽤L1正则化了。
3、multi-class :ovr 和multinomial
4、class-weight 类型权重参数
⽤于标识分类模型中各类型的权重,可以不选择,也可以⾃⼰指定,可以选择balanced让类库⾃⼰指定
5、样本权重参数 sample_weight
调节样本权重的⽅法有两种,第⼀种是在class_weight使⽤balanced。第⼆种是在调⽤fit函数时,通过sample_weight来⾃⼰调节每个样本权重。
6  random_state: 模型中有⼀些随机的过程,⽐如随机森林对特征和样本的随机采样,⼀样的random_state可以保证结果可以复现,代表的是底层numpy产出随机数的策略
但是没有具体的物理含义,就好像不⼀样的hash函数⼀样
800电话是免费的吗>sgt

本文发布于:2024-09-22 21:31:37,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/3/314719.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:样本   函数   损失   优化   回归   选择   梯度
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议