[机器学习]衡量线性回归效果的评价指标:R-squared 和调整R ⽅ 常⽤的衡量线性回归效果的评价指标
:
直线拟合所有点的好坏程度,可以⽤“R⽅”来评估。
R-squared
结论:,且R⽅越接近1越好!
原理:假设模型预测结果为,真实结果为,真是结果的平均数为:分⼦:模型预测产⽣的错误 分母:假设有⼀个标准模型,预测出来的值为真实值的平均数(最基准的模型 Baseline Model)
R ≤12y
^y y ˉR =21−(−y )∑i y
ˉi 2(−y )∑i y
拟合直线^i i 2
最理想的情况是所有点都落在线上,即:
对于每⼀点,,此时,分⼦为0,当 的平均数 =
时,分⼦=分母,即这⾥ 拟合程度特别差,直线远离所有的点,分⼦⽆限⼤
所以这⾥分⼦是⼀定≥分母的,,且越接近1越好。
PS: 分⼦称为RSS残差平⽅和,分母为TSS平⽅和
调整R ⽅(Adjested R-square)
结论:,且越接近1越好!
当有n个样本,p为特征数量,当增加特征数量时, 增加。因为 加⼊的有效特征越多,对因变量Y的描述也就越细致,⾃然,⽅程预测的准确性就越⾼,也就是说增加特征会让回归函数拟合得更好。
特征越多,⾃变量集合元素越多,⾃变量集合对因变量的解释程度越⾼,⼏何上表现为样本点在回归直线附近越密集,即拟合度越好,R⽅越⼤。
x i =y
i ^y i R =21y
i ^y ˉR =20=3++y 1^y 1^y 1
^3
y +y +y 123R ∈2(−∞,1]0≤R ≤1adjusted 2
R =adjusted 21−
n −p −1(1−R )(n −1)2R 2
当增加特征数量时, 没有显著增加,调整
变⼩当增加特征数量时, 显著增加,调整
变⼤R 2R 2R 2R 2