中级经济师 经济基础 第二十六章 回归分析

第二十六章回归分析
考试大纲:理解回归模型、回归方程、回归系数,掌握最小二乘法的原理和估计方法,根据估计的回归方程进行回归系数分析,掌握决定系数以及回归模型的检验。
一、回归模型
(一)回归分析的概念
所谓回归分析,就是根据相关关系的具体形态,选择一个合适的数学模型,来近似地表达变量间的依赖关系。
出血热百科回归分析和相关分析有着密切的联系,它们不仅具有共同的研究对象,而且在具体应用时,常常必须互相补充。相关分析需要依靠回归分析来表明现象数量相关的具体形式,而回归分析则需要依靠相关分析来表明现象数量变化的相关程度。只有当变量之间存在着高度相关时,进行回归分析寻求其相关的具体形式才有意义。
相关分析与回归分析之间在研究目的和方法上是有明显区别的。相关分析研究变量之间相关的方向和相关的程度。但是相关分析不能指出变量间相互关系的具体形式,也无法从一个变量的变化来推测另一个变量的变化情况。回归分析则是研究变量之间相互关系的具体形式,它对具有相关关系的变量之间的数
量联系进行测定,确定一个相关的数学
方程式,根据这个数学方程式可以从已知量来推测未知量,从而为估算和预测提供了一个重要的方法。
进行回归分析时,首先需要确定因变量和自变量。回归分析中,被预测或被解释的变量称为因变量,一般用Y表示;用来预测或解释因变量的变量称为自变量、一般用X表示。例如,在研究边际消费倾向时,目的是预测一定人均收入条件下的平均人均消费金额。因此,人均消费金额是被预测的变量,称为因变量,而用来预测人均消费的人均收入就是自变量。
(二)一元线性回归模型
根据自变量的多少,回归模型可以分为一元回归模型和多元回归模型。根据是否是线性回归模型可以分为线性回归模型和非线性回归模型。一元线性回归模型是描述两个变量之间相关关系的最简单的回归模型。回归模型可以用描述因变量Y如何依赖自变量X和误差项ε的方程来表示。只涉及一个自变量的一元线性回归模型可以表示为:
Y=β0+β1X+ε。
式中,β0和β1为模型的参数。
模型中,因变量Y是自变量X的线性函数(β0+β1X)加上误差项ε。β0+β1X反映了由于自变量X的变化而引起的因变量Y的线性变化。误差项ε是个随机变量,表示除X和Y 的线性关系之外的随机因素对Y的影响,是不能由X 和Y合成氨催化剂
的线性关系所解释的Y 的变异性。
描述因变量Y 的期望 E (Y )如何依赖自变量X 的方程称为回归方程。一元线性回归方程的形式为∶
E(Y)=β0+β1X西安pm2.5>国家安全委员会
一元线性回归方程的图示是一条直线,β0是回归直线的截距,β1是回归直线的斜率,表示X 每变动一个单位时,E (Y )的变动量。
二、最小二乘法
模型的参数β0和β1都是未知的,必须利用样本数据去估计。假设可以得到X 和Y 的n 组观测值,根据样本统计量∧0β和∧
1β估计模型中的参数β0和β1之后,就得到了估计的回归方程:
i i x ∧∧∧+=10y ββ(i=1,2,…,n )
∧1β表示自变量X 每变动一个单位时,因变量Y 的平均变
动量。
参数β0和β1确定了回归直线的位置,且一旦确定,这条直线也就唯一确定了。
但对于给定的n 组观测值,可用于描述数据的直线有很多条,用那一条直线来代表两个变量之间的关系,需要一个明确的原则。距离各观察点最近的一条直线,即实际观测点和直线间的距离最小。根据这一思想对回归模型进行估计的
方法称为最小二乘法。最小二乘法就是使得因变量的观测值yi 与估计值∧i y 之间的离差(又称残差)平方和最小来估计参
数β0和β1。
根据
最小二乘法,使得2101
课程教育研究i 21i )()(i n i i n i x y y y
∧∧=∧=--=-∑∑ββ最小。
21i )(∧=-=∑i n i y y Q ,在给定样本数据后,Q 是∧0β和∧1β的函数,且最小值总是存在。根据微积分的极值定理,对Q 求取相应于∧0β和∧1β的偏导数,并令其等于0即可求出∧0β和∧
1β的估计量。 ∑∑==∧---=n
i i
n i i i
x x y y x 121
1)())(x (β x y n x n y n
网络蚂蚁怎么用
i i n i ∧
=∧=∧-=-=
∑∑1111i 0βββ
三、模型的检验和预测
(一)回归模型的拟合效果分析
一般情况下,在使用估计的回归方程之前,需要对模型进行检验
模型进行假设检验。
1. 决定系数R 2(也称拟合优度或判定系数),可以测度回归模型对样本数据的拟合程度,计算公式如下:    ∑∑∑∑==∧==∧---=--=n i i n i i i n
i i
n i i y y y y y y y R 1212121
22)()y (1)
()
( 决定系数是回归模型所能解释的因变量变化占因变量总变化的比例,取值范围在0到1之间。如果所有观测点都落在回归直线上,则决定系数R 2=1,说明回归直线可以解释因变量的所有变化。决定系数R 2=0,说明回归直线无法解释因变量的变化,因变量的变化与自变量无关。决定系数R 2越接近1,回归模型的拟合效果越好,决定系数R 2越接近0,回归模型的拟合效果越差。

本文发布于:2024-09-22 20:34:53,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/401122.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:回归   模型   分析   相关   因变量   变量   直线
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议