[机器学习]衡量线性回归效果的评价指标:R-squared和调整R方

[机器学习]衡量线性回归效果的评价指标:R-squared 和调整R ⽅
常⽤的衡量线性回归效果的评价指标
:
直线拟合所有点的好坏程度,可以⽤“R⽅”来评估。
R-squared
结论:,且R⽅越接近1越好!
原理:假设模型预测结果为,真实结果为,真是结果的平均数为:分⼦:模型预测产⽣的错误
分母:假设有⼀个标准模型,预测出来的值为真实值的平均数(最基准的模型 Baseline Model)
R ≤12y
^y y ˉR =21−(−y )∑i y
ˉi 2(−y )∑i y
拟合直线^i i 2
最理想的情况是所有点都落在线上,即:
对于每⼀点,,此时,分⼦为0,当  的平均数 =
时,分⼦=分母,即这⾥ 拟合程度特别差,直线远离所有的点,分⼦⽆限⼤
所以这⾥分⼦是⼀定≥分母的,,且越接近1越好。
PS: 分⼦称为RSS残差平⽅和,分母为TSS平⽅和
调整R ⽅(Adjested R-square)
结论:,且越接近1越好!
当有n个样本,p为特征数量,当增加特征数量时, 增加。因为
加⼊的有效特征越多,对因变量Y的描述也就越细致,⾃然,⽅程预测的准确性就越⾼,也就是说增加特征会让回归函数拟合得更好。
特征越多,⾃变量集合元素越多,⾃变量集合对因变量的解释程度越⾼,⼏何上表现为样本点在回归直线附近越密集,即拟合度越好,R⽅越⼤。
x i =y
i ^y i R =21y
i ^y ˉR =20=3++y 1^y 1^y 1
^3
y +y +y 123R ∈2(−∞,1]0≤R ≤1adjusted 2
R =adjusted 21−
n −p −1(1−R )(n −1)2R 2
当增加特征数量时, 没有显著增加,调整
变⼩当增加特征数量时, 显著增加,调整
变⼤R 2R 2R 2R 2

本文发布于:2024-09-26 04:15:15,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/359810.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:回归   预测   模型   增加
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议