Modelo de regresión simple: Y = 1 + 2X + u
Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente en un modelo de regresión no tiene sesgo. (unbiased)
1
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
ii
i
ii uaXX
YYXXb 222
Modelo de regresión simple: Y = 1 + 2X + u
Vimos en una presentación anterior que el coeficiente de la pendiente se puede descomponer en el valor real y una suma ponderada de los valores del término de error. weighted sum of the values of the disturbance term.
2
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Por lo tanto, el valor esperado de b2 es igual al valor esperado de 2 y el valor esperado de la suma ponderada de los valores del término de error.
3
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
2 es fijo, por lo que no es afectado por las expectativas. La primera regla del valor esperado (capítulo de revisión) indica que la expectativa de una suma de varias cantidades es igual a la suma de sus expectativas.
4
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
iinnnnii uaEuaEuaEuauaEuaE ...... 1111
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Ahora para cada i, E(aiui) = aiE(ui). Este es un paso realmente importante y sólo lo podemos llevar a cabo con el Modelo A.
5
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Bajo el Modelo A, estamos asumiendo que los valores de X en las observaciones no son aleatorios. Por lo que cada ai no es eleatoria dado que sólo es una combinación de los valores de X.
6
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
De este modo puede ser tratado como constante, permitiendo que la saquemos de la expectativa usando la segunda regla del valor esperado (capítulo de la revisión).
7
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Bajo el supuesto, A.3, E(ui) = 0 para toda i, yel estimador es insesgado. La prueba de la imparcialidad del estimador del intercepto se dejará como un ejercicio.
8
ii
i
ii uaXX
YYXXb 222
2XX
XXa
j
ii
2
22
22
iiii
ii
uEauaE
uaEEbE
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Es importante notar que los estimadores OLS de los parámetros no son los únicos insesgados. Daremos ejemplos de otros.
9
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Alguien que nunca ha oído hablar de análisis de regresión, viendo un diagrama de dispersión de una muestra de observaciones, podría estimar la pendiente uniendo la primera y la última observaciones, y dividiendo el aumento en la altura por la distancia horizontal entre ellas. 10
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
Y
Y1
X1 Xn
Yn
X
Yn – Y1
Xn – X1
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Por lo tanto, el estimador es (Yn–Y1) dividido entre (Xn–X1). Investigaremos si está sesgado o no.
11
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
Y
Y1
X1 Xn
Yn
X
Yn – Y1
Xn – X1
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Para hacer esto, comenzaremos substituyendo los compoenetes Y en la expresión.
12
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
Y
Y1
X1 Xn
Yn
X
nnn uXY 21
11211 uXY
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Los términos 1 se anulan y el resto de la expresión se simplifica como se muestra. Así hemos descompuesto este estimador en dos componentes, el valor real y un término de error. Esta descomposición es paralela a la del estimador OLS, pero el término del error es diferente. 13
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Ahora tomamos expectativas para investigar imparcialidad.
14
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple : Y = 1 + 2X + u
El denominador del término de error puede sacarse porque los valores de X no son aleatorios.
15
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Dado el supuesto A.3, las expectativas de un y u1 son cero. Por lo tanto, a pesar de ser naïve, este estimador no está sesgado..
16
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Es intuitivamente fácil saber que no preferiremos el estimador naïve sobre el OLS. A diferencia del OLS, que toma cuenta de cada observación, emplea solamente la primera y la última, por lo que está perdiendo la mayor parte de la información en la muestra.
17
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
El estimador naïve será sensible al valor del término de error u en esas dos observaciones, mientras que el estimador OLS combina todo los valores del término de error y aprovecha la posibilidad de que, hasta cierto punto, se anulen.
18
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Modelo de regresión simple: Y = 1 + 2X + u
Con mayor rigor, puede ser demostrado que la variación de población del estimador naïve es mayor que la del estimador OLS, y que el estimador naïve es por lo tanto menos eficiente.
19
1
12
1
112
1
112121
1
12
XX
uu
XX
uuXX
XX
uXuX
XX
YYb
n
n
n
nn
n
nn
n
n
211
2
1
122
)(1
)()(
uuEXX
XXuu
EEbE
nn
n
n
INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN
Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use.
01.07.06
Top Related