modelo de regresión simple
DESCRIPTION
Modelo de Regresión Simple. Definición del Modelo de Regresión Simple Estimaciones por MCO Método de MCO Valores Esperados y Varianzas por MCO. Definición de Regresión Simple. Donde U=Utilidad de consumidor Gp =Gustos y preferencias Sin embargo:. - PowerPoint PPT PresentationTRANSCRIPT
![Page 1: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/1.jpg)
Definición del Modelo de Regresión Simple
Estimaciones por MCOMétodo de MCO
Valores Esperados y Varianzas por MCO
MODELO DE REGRESIÓN SIMPLE
![Page 2: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/2.jpg)
DondeU=Utilidad de consumidorGp=Gustos y preferencias
Sin embargo:
DEFINICIÓN DE REGRESIÓN SIMPLE
Otros Factores en la Regresión
Relación Funcional entre las variables
Ceteris Paribus
![Page 3: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/3.jpg)
ESTO LLEVA A…MODELO DE REGRESIÓN LINEAL SIMPLE
Variable Dependien
te Variable
ExplicadaVariable Predicha
Regresando
c
Variable Independien
te Variable
ExplicativaVariable de
ControlRegresor
Error o perturbaci
ón
![Page 4: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/4.jpg)
Se aplica el principio Ceteris Paribus a (otras variables)Algunos supuestos
E(u) = 0 E(u|x) = E(u)
E(u|x) = E(u)=0Cov(x,u) = E(xu) = 0 (No existe relacion lineal entre
variables)
RELACIÓN FUNCIONAL ENTRE VARIABLES
![Page 5: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/5.jpg)
5
..
x1 x2
E(y|x) es una funcion lineal de x: para cada x,la predicción de y es E(y|x)
E(y|x) = b0 + b1x
y
f(y)
![Page 6: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/6.jpg)
Restricciones
muestrales
Seleccionar parámetros que aseguren estas restricciones
Imponer restricciones a la población
MÉTODOS DE LOS MOMENTOS
![Page 7: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/7.jpg)
MCOMétodo
de Estimac
ión
Minimiza los
errores al
cuadrado
MINIMIZANDO ERRORES
![Page 8: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/8.jpg)
8
.
..
.
y4
y1
y2
y3
x1 x2 x3 x4
}
}
{
{
û1
û2
û3
û4
x
y
Línea de regresión muestral, observaciones, y residuales estimadosMinimizando Residuos
xy 10ˆˆˆ bb
![Page 9: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/9.jpg)
xy
(x,u) ux
n
uu
n
iii
n
iin
ii
10
1
1
1
ˆˆ
0cov por tanto, 0ˆ
0 ˆ
por tanto, 0ˆ
bb
PROPIEDADES ALGEBRAICAS (MATEMÁTICAMENTE) DE MCO
9
Es decir, la solución de MCO es idéntica a la del método de momentos.
![Page 10: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/10.jpg)
SSR SSE SST que implica cual Lo
SSR :cuadrados de Residual Suma la es ˆ
SSE :cuadrados de Explicada Suma la es ˆ
SST :cuadrados de Total Suma la es
:siguiente lodefinir podemos que modo De ˆˆ:explicado no componenteun y co)(sistemáti explicado
componenteun en n observació cadaseparar Podemos
2
2
2
i
i
i
iii
u
yy
yy
uyy
LINEA DE REGRESION
10
![Page 11: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/11.jpg)
Bondad de Ajuste
¿Qué tan bueno es el ajuste
entre la línea de regresión y los datos de la
muestra?R2 = SSE/SST =
1 – SSR/SSTCoeficiente de determinacion
PROPIEDADES DE MCO
![Page 12: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/12.jpg)
Insesgamiento: Eficiencia
PROPIEDADES DE MCO
![Page 13: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/13.jpg)
1. El modelo poblacional es lineal en sus parámetros: y = b0 + b1x + u
2. Muestra aleatoria de tamaño n, {(xi, yi): i=1, 2, …, n}, representativa de la
población, de modo que el modelo muestral es: yi = b0 + b1xi + ui
3. Media condicional cero: E(u|x) = 0 y por tanto E(ui|xi) = 0
4. Varianza(xi ) > 05. homoscedasticidad
INSESGAMIENTO: SUPUESTOS GAUSS-MARKOV
![Page 14: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/14.jpg)
14
..
x1 x2
Homoscedasticidad
E(y|x) = b0 + b1x
y
f(y|x)
![Page 15: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/15.jpg)
15
.x
yf(y|x)
x1 x2 x3
. .E(y|x) = b0 + b1x
Heteroscedasticidad
![Page 16: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/16.jpg)
A mayor varianza del error, s2, mayor varianza del estimador de b1.
A mayor varianza en xi, menor varianza del estimador de b1.Por ende, a mayor tamaño de
muestra, n, menor varianza del estimador de b1.
VARIANZA DE MCO: RESUMEN
16
![Page 17: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/17.jpg)
Residuos se encuentran en
ecuación estimada
Error aparece en ecuación
con parámetros
poblacionales Por tanto, expresar
errores en función de residuos
DIFERENCIAS ENTRE RESIDUOS Y ERRORES
![Page 18: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/18.jpg)
iii xyu 10ˆˆˆ bb
ESTIMACIÓN DE LA VARIANZA DEL ERROR
18
Lo que observamos son los residuales (estimados) del modelo muestral:
Pero podemos usar los residuales estimados para construir un estimador de la varianza del
error.
![Page 19: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/19.jpg)
2ˆ
21ˆ
:es de insesgadoestimador un que modo de
.eliminan.. se paréntesis ambos nto,insesgamiepor
ˆˆ
ˆˆ para dosustituyeny ,ˆˆˆ
22
2
1100
1010
10
nSSRu
n
xu
xux
yxyu
i
ii
iii
iiii
s
s
bbbb
bbbb
bbESTIMACIÓN DE LA
VARIANZA DEL ERROR
19
![Page 20: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/20.jpg)
2
121
1
2
ˆˆse
:ˆ deestándar error el
tenemosentonces , de en vez ˆ ssustituimo si
ˆstd.dev :que recordemos
regresión la deestándar error ˆˆ
xx
s
i
x
sb
b
ss
sb
ssESTIMACIÓN DE LA
VARIANZA DEL ERROR
20
Y, una vez que conocemos el error estándar de b1 estimada, podemos calcular su intervalo de confianza y hacer pruebas de hipótesis.
![Page 21: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/21.jpg)
MODELO DE REGRESIÓN MÚLTIPLE
![Page 22: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/22.jpg)
Donde C=Costos de producción
PR=Productividad del trabajadorW =Salario
Para esto se asume:
¿Qué implica esto?
MODELO DE REGRESIÓN MÚLTIPLE
![Page 23: Modelo de Regresión Simple](https://reader035.vdocuments.us/reader035/viewer/2022081503/56815ba3550346895dc9a7cb/html5/thumbnails/23.jpg)
LECTURA DE PARÁMETROS