随机森林原理解释及其中各个参数的含义中文解释


2023年12月28日发(作者:java成品网站)

.

一 、RF原理解释:

首先,从给定的训练集通过多次随机的可重复的采样得到多个 bootstrap 数据集。接着,对每个 bootstrap

数据集构造一棵决策树,构造是通过迭代的将数据点分到左右两个子集中实现的,这个分割过程是一个搜索分割函数的参数空间以寻求最大信息增量意义下最佳参数的过程。然后,在每个叶节点处通过统计训练集中达到此叶节点的分类标签的直方图经验的估计此叶节点上的类分布。这样的迭代训练过程一直执行到用户设定的最大树深度(随机森林提出者Breiman采用的是ntree=500)或者直到不能通过继续分割获取更大的信息增益为止,网上的代码中作者都是对树的最大深度设置了最大值。

二、函数,参数的中文解释

function model = classRF_train(X,Y,ntree,mtry, extra_options)

随机森林中模型的训练

X,表示输入的数据矩阵

Y输出

Ntree 设置的树的数目

Mtry的默认值为

floor(sqrt(size(X,2)),表示不超过矩阵X列数的二次开根值的整数。

extra_options 包含很多控制RF的项

extra_e 取值为1或0,默认值为1,表示是否做变量替换

extra_t 表示预先知道的类,函数首先得到一个升序排列的标签然后给先前的类同样的排序。

extra_ 只在分类器中使用的一个向量,长度等于类的数目。对类的观察值是取对cutoff投票占的的最大比例的一个。

extra_ 用于分层抽样

extra_ze 样本的长度

extra_ze 表示终端节点的最小值,这个参数设置得越大会使更小的树生长,耗时更少。

extra_ance 判断是否需要对预测器的importance进行评估

extra_mp 决定是否对casewise的重要性度量进行计算

extra_ity 判别是否计算行之间的距离

extra__prox 判断是否计算out-of-bag

extra__trace 如果设定为TRUE,当随机森林运行的时候输出更多冗长的数据。如果设置为一些整数,输出每个追踪树。

extra__inbag 通过树的数目矩阵跟踪每个样本在树上的in-bag。

norm_votes 统计每一类的投票数

importance 对于分类器来说是一个列数等于类别数加二,第一列计算精度下降值。在ncalss+1列表示所有类平均精度减少值。最后一列表示Gini指数平均减小值。在随机森林用于回归的应用中importance表示的含义又不一样,我们只用到分类的作用,所以对回归的含义不做介绍。

importanceSD 标准差

localImp 包含importance标准化残差测量值的矩阵

ntree 生长的树的数目

mtry 在每一个分裂节点处样本预测器的个数。

Votes 一个矩阵,行表示每一个输入数据点,列表示每一类,记录投票数。

Proximity 如果proximity=TRUE表示随机森林被调用。

,.

.

Combine 把树结合起来

getTree(rfobj, k=1, labelVar=FALSE),这个函数的作用是从随机森林中提取树的结构,rfob表示对应的随机森林,k表示要提取的那棵树,, labelVar表示是否是最好的标签用于变量分离和类的预测。在分类器预测中分裂点用整数表示,比如预测器如果有四个参数,分裂点是十三,就表示成(1.0.1.1)因为131*20*21*21*2

if labelVar=TRUE) 一个列数为六,行数等于树中节点总数的矩阵。六列分别为:left daughter,如果是末端左子女节点取值为0。right daughter,如果这个右子节点是末端节点则取值为零。

split var表示哪个变量用来分裂节点,如果是末端节点则取零。split point 表示最佳分裂的位置。

Status 是否是终端节点-1/1. Prediction 对节点的预测 用0表示还没有到达终端节点。

0123grow(x, , ...) 给现有的树的体增加新的额外的树。X表示随机森林的类,表示增加到随机森林x中的树的个数。

importance(x, type=NULL, class=NULL, scale=TRUE, ...) x表示随机森林中的类,type表示测量的类型,取值为1的时候表示不准确度,取值为2的时候表示节点不纯度测量。Class 返回值表示哪一个具体的类被测量了。Scale 对测量值进行变换,求他们的标准差。对于分类器来说,节点不纯度是通过Gini系数求解的。返回值为一个矩阵,行表示每个预测变量,列表示不同的importance测量值。

margin(x, ...) 从随机森林分类器中计算或绘制预测器的边缘。

MDSplot(rf, fac, k=2, palette=NULL, pch=20, ...) 随机森林中相似矩阵的多维测量。rf 表示包含近邻成分的随机森林的类。Fac 训练rf的一个响应值。k表示伸缩坐标的维数。Palette用颜要区分不同的类。

outlier(x, cls=NULL, ...) 基于相似矩阵计算无关测量值。x指的是相似矩阵。Cls表示相似矩阵所在的行属于的类。如果没有给出,则默认为所有数据来自同一个类。

partialPlot(x, , , , w, plot = TRUE, add = FALSE, =

min(length(unique([, xname])), 51), rug = TRUE, xlab=deparse(substitute()), ylab="",

main=paste("Partial Dependence on", deparse(substitute())), ...)

用图表描述局部的一个变量对类的概率的边缘效应。

plot(x, type="l", main=deparse(substitute(x)), ...)计算错误率

predict(object, newdata, type="response",=TRUE, =FALSE, proximity=FALSE,

nodes=FALSE,cutoff, ...) 用随机森林预测测试数据。Object表示随机森林类的对象,由随机森林函数创建。Newdata表示包含新数据的数据帧或者矩阵。可表示响应,概率,票数,指输出的类型。Nodes判断是否是终点。Proximity判断是否需要进行近邻测量。判断是否保留所有的预测器。

randomForest(x, y=NULL, xtest=NULL, ytest=NULL, ntree=500, mtry=if (!(y) && !(y))

,.

.

max(floor(ncol(x)/3), 1) else floor(sqrt(ncol(x))), replace=TRUE, classwt=NULL, cutoff, strata,

sampsize = if (replace) nrow(x) else ceiling(.632*nrow(x)), nodesize = if (!(y) && !(y))

5 else 1, maxnodes = NULL, importance=FALSE, localImp=FALSE, nPerm=1, proximity,

=proximity, =TRUE, =FALSE, =!(y) && (xtest),

=FALSE, =FALSE, ...)

data是一个可选的数据帧,包含模型中的变量。Subset是一个指示量表示哪一行应该被使用。

Xtest测试集,

ytest表示对测试集的输出,

Cutoff 是一个长度等于类的数目的向量。被预测的类是投票给cutoff投票率最高的一个类。

treesize(x, terminal=TRUE)表示数的宽度。

,.


本文发布于:2024-09-22 11:37:40,感谢您对本站的认可!

本文链接:https://www.17tex.com/fanyi/40460.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:表示   节点   森林   数据
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议